在新的更新中,iPhone 16阵容终于获得了视觉智能,该功能使您仅通过拍摄图片就可以立即收集有关周围任何事物的信息。
视觉智能集成到iOS 18.2上的相机控制按钮中,可让您访问第三方服务,例如Chatgpt和Google搜索见解,从而简单地了解对象,地标,餐厅收视率,甚至是您遇到的狗的品种。
在下面,我们将带您了解视觉智能,如何访问其强大工具以及实用示例您可以使用此开创性功能的实践示例。
- 不要错过:完整的iOS 18.2功能指南 - 这是您的iPhone的一切新事物和改进
要使用视觉智能,您将需要iPhone 16,iPhone 16 Plus,iPhone 16 Pro或iPhone 16 Pro Max运行iOS 18.2或更高版本。此外,必须通过设置»Apple Intelligence&Siri启用Apple Intelligence功能。
视觉智能直接构建在相机控制按钮中,这意味着您可以从任何可以访问相机界面的地方访问它。
要使用它,请按并按住相机控制按钮。如果是您第一次使用视觉智能,Apple将显示一个飞溅屏幕,解释捕获的用于分析的任何图像均未存储在iPhone上或与Apple共享。当第一次使用Chatgpt和Google的询问和搜索功能时,您还将获得Splash屏幕,该功能解释说,捕获的图像将发送到Chatgpt或Google进行分析。
使用视觉智能接口
进入视觉智能接口后,您将看到三个主要组件:一个大的快门按钮(捕获),文本气泡图标(ask)和图像搜索图标(搜索)。这三个都会为您指向iPhone相机的任何内容都会拍照,但是每个相机都有其自己的目的,我们将在下面进行评论。如果捕获按钮没有任何信息,则问答和搜索按钮也将出现。
您可以通过夹克屏幕或轻轻按下相机控制按钮来放大或输出。 Zoom是相机控制设置覆盖层中唯一可用的选项,因此您只需要轻轻按一下按钮,然后将手指滑到其上以调整缩放水平即可。
1。捕获(快门)
点击快门按钮以捕获场景并从Apple Intelligence获取自定义结果。结果将根据您捕获的内容而有所不同。以下是您从Apple Intelligence中看到的一些东西:
- 翻译文字
- 总结文本
- 将事件添加到日历
- 致电电话号码
- 访问网站
- 在地图中查看位置
- 大声朗读文字
- 订购食物
- 查看菜单
- 查看更多选项
如果Apple Intelligence在图像中找不到任何内容,您仍然可以使用询问和搜索按钮分别从Chatgpt和Google获取信息,我们将在下面介绍。
如果您从视觉智能中获得不正确的结果,则可以看到按钮显示,可以“报告关注点”。它也将在更多(•••)菜单中提供。
2。问(chatgpt)
点击文本气泡图标以获取Chatgpt的详细信息,该信息有助于解释复杂的场景并识别难以识别的对象。当Apple Intelligence本身没有任何答案时,它也是一个不错的备份选项。
您可以在捕获屏幕上点击“问答”按钮,以立即拍照并询问Chatgpt以获取有关它的信息,也可以在用“快门”按钮捕获图像后点击询问,以防您首先听到苹果的一面。
然后,您将看到Chatgpt的响应,您可以将其复制到剪贴板上,并使用“随访chatgpt”选项,以继续询问问题以获取其他详细信息。如果您没有从chatgpt获得自动响应,只需在后续领域提交问题即可。
提示:如果您安装了ChatGpt应用程序,则可以在应用程序内打开交互,以获得更多的对话体验。登录时,CHATGPT集成还可以在您的Chatgpt帐户中节省交互。
请注意,Chatgpt并不完美。如下所示,我想知道一幅捕获的画背后的艺术家,它错误地识别了艺术家和艺术品的标题。我以反馈表格提交了正确的答案,然后在三个星期后再次尝试,并得到了不同的回答,这也是错误的。
3。搜索(Google)
点击图像搜索图标,以查看Google搜索上找到的匹配图像,该图像有助于识别特定产品,位置或其他可见元素。像询问按钮一样,当Apple Intelligence本身没有任何答案时,搜索选项也是一个不错的备份选项。
您可以点击捕获屏幕的搜索按钮以立即拍摄图片,并要求Google搜索显示相似的图像。另外,您可以在使用快门按钮捕获照片后点击搜索,以首先查看Apple自己的结果。
然后,您将看到一个窗口,显示了从Google Image搜索中取出的图像的选择,您可以在Web视图中滚动或打开,以详细浏览。
如果您从Google获得了不正确的图像匹配,则可以“报告关注点”以提供反馈。
视觉智能行动中的实际例子
以下是一些现实世界中的视觉智能可以派上用场的情况:
- 探索当地餐馆:沿着街道行走时,将相机指向餐厅。视觉智能可以带来客户评分,评论,菜单,订单链接甚至数小时的操作。
- 在旅途中翻译文字:旅行时,您可以使用视觉智能将标志,菜单或其他文本从一种语言转换为另一种语言。
- 立即添加事件详细信息:拍摄事件传单的照片,视觉智能将使您可以从其捕获的详细信息中创建一个日历事件。
- 了解植物,动物和物体:为独特的动植物拍摄照片,视觉智能可以使用Chatgpt或Google来帮助您识别它。
- 识别艺术品和绘画:如果您要在博物馆中观看一件艺术品,请按住相机控制按钮,点击问问,而视觉智能将使用Chatgpt来识别艺术家和作品(尽管如上所述,结果可能并不是每次都完美的)。
- 获得实际答案:需要帮助识别狗的品种或公园中的树类型吗? Visual Intelligence的Chatgpt可以分析图像并提供洞察力。
- 查找在哪里购买产品:如果您在商店中发现了自己喜欢的物品,请与Visual Intelligence快速拍摄照片,并使用Google搜索查找在线零售商。
- 识别著名地标:拍摄地标的照片,视觉智能可以向您显示其在地图,地址,评论和其他数据上的位置,并且使用Google搜索将显示相似的图像和详细信息。
- 帮助可访问性:捕获图像以获取翻译,总结内容以易于阅读,使其对您说捕获的文字,以及更多。
成功使用视觉智能的提示
- 根据苹果的说法,“有关感兴趣地点的信息将在美国开始,并在未来几个月内支持其他地区。”
- 视觉智能自动在受支持的设备上自动提供,但可能需要许可才能访问Chatgpt或Google搜索。确保将设置配置为无缝体验。
- 使用Chatgpt时,请随时提出后续问题,如果初始响应不完整或不清楚。
- 视觉智能不会与Apple存储或共享捕获的图像。
- 如果您收到不准确的信息,请直接在界面中向Apple,Google或Changpt提交反馈,以帮助培训其模型。
iPhone 16阵容上的视觉智能为用户带来了新的信息访问和灵活性。无论您是探索周围环境,寻求产品信息还是识别对象,此工具都为随行的现实互动和数字智能提供了新的可能性。通过利用Chatgpt和Google搜索等服务,Apple的视觉智能提供了隐私,控制和即时见解的强大组合 - 全部在您的手掌中。
封面照片和Shutterstock的屏幕截图