苹果 iPhone 16 视觉智能与谷歌合作增强人工智能集成

苹果 iPhone 16 视觉智能与谷歌合作增强人工智能集成
2024 年 9 月 11 日

苹果与谷歌的合作正在推进,推出了新的视觉搜索功能“视觉智能”,该功能在该公司的“[It's Glowtime](https://developer.apple.com/news/?id=zvdnvggt)“事件。Alphabet目前每年支付约200亿美元作为Safari的默认搜索引擎。除了此次合作之外,iPhone16 用户现在可以通过设备内置的相机控制按钮访问 Google 的搜索引擎和视觉搜索功能。

此外,OpenAI 的 ChatGPT 正在与 Siri 集成,如图所示通过一项功能,用户可以将手机摄像头对准讲义,只需单击一下即可获得解释。

苹果重点介绍了“相机控制”按钮的功能,强调其快速拍摄照片和视频的多功能性,以及用户如何通过滑动按钮来方便地调整变焦和曝光设置。除了与相机相关的功能外,该按钮还可以作为苹果创新视觉搜索功能的门户,该功能已融入苹果与谷歌的合作伙伴关系中。

最初,相机控制按钮似乎是增强型快门按钮,但苹果已澄清它提供了摄影以外的功能。通过视觉智能功能,用户不仅可以识别相机拍摄的物体,还可以无缝访问第三方服务,而无需启动单独的应用程序。

苹果的视觉智能,堪比Google LensPinterest Lens,让用户快速获得有关他们遇到的物体的信息。苹果在演示中展示了该功能检索餐厅详细信息或识别散步时遇到的狗的品种的能力。此外,该功能还可以将活动海报变成日历条目。

苹果软件工程高级副总裁克雷格·费德里吉 (Craig Federighi) 在活动中透露,谷歌搜索也可以通过相机控制按钮访问。他澄清说,按下按钮,消费者可以立即在谷歌上搜索他们可能有兴趣购买的产品,例如自行车。演示显示,用户点击按钮即可查看待售的类似自行车,并可以选择直接从 Google 探索更多结果。

然而,苹果并没有具体说明相机控制按钮何时会优先使用第三方服务而不是苹果的内置功能,例如餐厅搜索演示中使用的苹果地图。此外,该公司没有透露用户如何定制此功能。尽管他的回答缺乏具体性,但费德里吉向用户保证,他们始终可以自行决定何时使用第三方工具。

这一功能的出现正值传统的 App Store 体验开始显得有点过时的时候,它提供了一种与 Apple 内置应用程序之外的软件和服务进行交互的新选项。借助人工智能助手,用户现在可以提出问题、完成任务并表达自己的创造力,而无需依赖独立的应用程序。

苹果将​​自己定位为一个将消费者与第三方服务(例如人工智能和搜索提供商)联系起来的平台,而不是创建自己的 ChatGPT 替代品。苹果可以通过与 OpenAI 等公司建立合作伙伴关系,在不依赖应用内购买的情况下提供这些功能来赚钱。它还避免对 ChatGPT 或 Google 搜索等第三方服务产生的错误承担责任。

图片来源:苹果

Code Labs Academy © 2024 版权所有.