Apple Vision Pro 也许能够读懂你的心思
0
回复 388
查看
[复制链接]
|
时间:2023-8-1 13:48:00
| 阅读:388 |
显示全部楼层
一位苹果前员工对 Apple Vision Pro 的开发进行了深入剖析,并谈到了通过 AI 进行读心术。
Sterling Crispin 表示,他曾是苹果技术开发小组的神经技术原型研究员,并在最近发布的 Vision Pro 的开发中发挥了重要作用。除此之外,他一直致力于开发一种使用 AI 预测用户行为的技术。
根据 Sterling Crispin 的说法,他在苹果工作期间开发的许多技术都是保密的。然而,由于他工作的某些内容通过专利公开,他现在被允许谈论它们。Crispin 在 Twitter 上写道:“从广义上讲,我的工作是关于在沉浸式体验中使用身体和大脑数据识别用户的精神状态。”
这些状态将根据眼球运动、大脑电活动、心跳和节律、肌肉活动、大脑中的血液密度、血压、皮肤电导等进行测量。Crispin 表示:“人工智能模型试图预测用户是否好奇、走神、害怕、注意力集中、回忆过去的经历或其他一些认知状态。”
在对 MR 或 VR 应用程序中的用户进行这种 AI 分析时,除了情绪状态外,还需要识别认知意图。Crispin 透露,他已经参与了预测用户决策等技术——一种人工智能读心术。
Crispin 描述道:“你的瞳孔在你点击某物之前会做出反应,也是因为你期望在你点击它之后会发生一些事情。因此,你可以通过观察用户的眼球行为并实时重新设计用户界面来与用户的大脑一起创建生物反馈,以放大这种预测性瞳孔反应。它就像一个脑机接口,只能通过测量眼睛来工作。”
Crispin 还致力于预测用户的注意力或放松状态。Crispin 描述说,机器学习以及对身体和大脑信号的分析可以用来预测一个人的专注或放松程度,或者他或她的学习强度。这些发现可能主要流入苹果的沉浸式办公室或冥想环境。
根据 Crispin 的说法,可以根据这些数据实时更新虚拟环境,以帮助集中注意力。“想象一个自适应的、身临其境的环境,通过改变你在背景中看到和听到的东西来帮助你学习、工作或放松。”到目前为止,苹果只在头显的框架上推出了一个拨盘,允许用户自己调整沉浸程度。
Crispin 已于 2021 年底离开苹果,因此不知道他有多少所描述的技术实际上进入了 Apple Vision Pro。
|
|
|
|
|
|