千家信息网

苹果 WWDC23 不提“人工智能”,更倾向使用“机器学习”

发表于:2024-11-22 作者:千家信息网编辑
千家信息网最后更新 2024年11月22日,CTOnews.com 6 月 6 日消息,苹果公司在周一的 WWDC 2023 主题演讲中,除了发布了备受期待的 Mac Pro 和 Vision Pro 等新产品外,还展示了其在机器学习领域的最新
千家信息网最后更新 2024年11月22日苹果 WWDC23 不提“人工智能”,更倾向使用“机器学习”

CTOnews.com 6 月 6 日消息,苹果公司在周一的 WWDC 2023 主题演讲中,除了发布了备受期待的 Mac Pro 和 Vision Pro 等新产品外,还展示了其在机器学习领域的最新进展。不过CTOnews.com注意到,与微软和谷歌等竞争对手大力宣传生成式人工智能不同,苹果公司在演讲中并没有提及"人工智能"这个词,而是更多地使用了"机器学习"和"ML"这样的术语。

例如,在 iOS 17 的演示中,软件工程高级副总裁 Craig Federighi 介绍了自动纠错和语音识别的改进:

自动纠错是由设备上的机器学习驱动的,多年来,我们不断地提升这些模型。键盘现在利用了一种 transformer 语言模型,这是目前最先进的词预测技术,使得自动纠错比以往更加准确。而且,借助 Apple Silicon 芯片的强大性能,iPhone 可以在你每次按下一个键时运行这个模型。

值得注意的是,苹果公司在其主题演讲中提到了人工智能领域的一个术语"transformer"。该公司具体谈到了一种"transformer 语言模型",这意味着其人工智能模型使用了 transformer 架构,这是近期许多生成式人工智能所使用的底层技术,例如 DALL-E 图像生成器和 ChatGPT 聊天机器人。transformer 模型(一个于 2017 年首次提出的概念)是一种用于自然语言处理(NLP)的神经网络架构,采用了自注意力机制,使其能够优先处理序列中不同的单词或元素。其能够并行地处理输入,从而显著提高了效率,并在 NLP 任务中取得了突破性的进展,如翻译、摘要和问答。

据苹果公司介绍,iOS 17 中的新 transformer 模型可以实现句级别的自动纠错,当你按下空格键时,它可以完成一个单词或整个句子。还会根据你的写作风格进行学习,从而指导其建议。苹果公司还表示,语音识别"采用了一种基于 transformer 的语音识别模型,利用神经引擎使语音识别更加准确"。

在主题演讲中,苹果公司还多次提到了"机器学习",比如在描述新 iPad 锁屏功能("当你选择一张 Live Photo 时,我们使用一种先进的机器学习模型来合成额外的帧");iPadOS PDF 功能("利用新的机器学习模型,iPadOS 可以识别 PDF 中的字段,让你可以使用自动填充功能快速填写信息,比如从你的联系人中获取的姓名、地址和电子邮件等。");AirPods 自适应音频功能("通过个性化音量,我们使用机器学习来了解你的收听偏好随时间的变化");以及 Apple Watch 小部件功能 Smart Stack("Smart Stack 使用机器学习在你需要的时候向你展示相关信息")。

苹果公司还推出了一款叫做 Journal 的新应用,可利用设备端机器学习提供个性化建议,为用户带来日记灵感。这些建议根据用户近期活动智能生成,包括照片、人物、地点、体能训练等,帮助用户更轻松地开始记录。

最后,在演示 Vision Pro 头显时,该公司透露,用户眼睛上的动态图像是由扫描你的脸部创建的一个特殊的 3D 头像 -- 当然,这也是机器学习的功劳。

0