苹果 WWDC23 不提“人工智能”,更倾向使用“机器学习”
CTOnews.com 6 月 6 日消息,苹果公司在周一的 WWDC 2023 主题演讲中,除了发布了备受期待的 Mac Pro 和 Vision Pro 等新产品外,还展示了其在机器学习领域的最新进展。不过CTOnews.com注意到,与微软和谷歌等竞争对手大力宣传生成式人工智能不同,苹果公司在演讲中并没有提及"人工智能"这个词,而是更多地使用了"机器学习"和"ML"这样的术语。
例如,在 iOS 17 的演示中,软件工程高级副总裁 Craig Federighi 介绍了自动纠错和语音识别的改进:
自动纠错是由设备上的机器学习驱动的,多年来,我们不断地提升这些模型。键盘现在利用了一种 transformer 语言模型,这是目前最先进的词预测技术,使得自动纠错比以往更加准确。而且,借助 Apple Silicon 芯片的强大性能,iPhone 可以在你每次按下一个键时运行这个模型。
值得注意的是,苹果公司在其主题演讲中提到了人工智能领域的一个术语"transformer"。该公司具体谈到了一种"transformer 语言模型",这意味着其人工智能模型使用了 transformer 架构,这是近期许多生成式人工智能所使用的底层技术,例如 DALL-E 图像生成器和 ChatGPT 聊天机器人。transformer 模型(一个于 2017 年首次提出的概念)是一种用于自然语言处理(NLP)的神经网络架构,采用了自注意力机制,使其能够优先处理序列中不同的单词或元素。其能够并行地处理输入,从而显著提高了效率,并在 NLP 任务中取得了突破性的进展,如翻译、摘要和问答。
据苹果公司介绍,iOS 17 中的新 transformer 模型可以实现句级别的自动纠错,当你按下空格键时,它可以完成一个单词或整个句子。还会根据你的写作风格进行学习,从而指导其建议。苹果公司还表示,语音识别"采用了一种基于 transformer 的语音识别模型,利用神经引擎使语音识别更加准确"。
在主题演讲中,苹果公司还多次提到了"机器学习",比如在描述新 iPad 锁屏功能("当你选择一张 Live Photo 时,我们使用一种先进的机器学习模型来合成额外的帧");iPadOS PDF 功能("利用新的机器学习模型,iPadOS 可以识别 PDF 中的字段,让你可以使用自动填充功能快速填写信息,比如从你的联系人中获取的姓名、地址和电子邮件等。");AirPods 自适应音频功能("通过个性化音量,我们使用机器学习来了解你的收听偏好随时间的变化");以及 Apple Watch 小部件功能 Smart Stack("Smart Stack 使用机器学习在你需要的时候向你展示相关信息")。
苹果公司还推出了一款叫做 Journal 的新应用,可利用设备端机器学习提供个性化建议,为用户带来日记灵感。这些建议根据用户近期活动智能生成,包括照片、人物、地点、体能训练等,帮助用户更轻松地开始记录。
最后,在演示 Vision Pro 头显时,该公司透露,用户眼睛上的动态图像是由扫描你的脸部创建的一个特殊的 3D 头像 -- 当然,这也是机器学习的功劳。
相关文章
- 25 周年纪念作,情怀拉满但诚意欠缺:《勇者斗恶龙 怪物仙境 3》
- 联想拯救者 Y700 2023 平板推送 ZUI 15.0.723 系统灰度测试:新增“USB 网络共享”,优化底部小白条
- Streacom 推出 SG10 高端被动散热机箱:可解热 600W,1300 美元
- 3D 角色扮演策略游戏《少女前线 2:追放》公测开启,安卓、iOS、PC 多端互通
- 新能源车市:价格战开局,价值战结束
- 雪天这样拍,照片更为味道
- Cybertruck:未来物种重新定义汽车
- 2022 年我国未成年网民规模突破 1.93 亿,普及率达 97.2%
- 上映 7 天,《名侦探柯南:黑铁的鱼影》内地票房破亿、豆瓣 6.6 分
- 小岛工作室推出《死亡搁浅》联名手机手柄,预计明年发售