苹果新专利:将应用在普通设备和苹果VR/AR设备
我的极刻近日消息,苹果的第三项专利眼球追踪技术,可应用在普通设备和苹果VR/AR设备。使用该系统,用户只要移动眼球就能控制光标,不仅如此,凝视选择可以通过键盘输入文本的同时进行移动,从而达到在输入时指定文档中呈现出3D效果。
事实上,苹果之前就提出过眼球追踪相关专利。先前的红外传感技术分别适用于食品检测、头戴式装置的自适应面部接口等。这项专利是“通过用凝视来选择文本输入的区域”,仅看名字就可以看来与苹果以往的专利不一样,但不仅名称不同,并且还在之前的眼球追踪技术上做了一些优化和改进。
如何区别理解与之相似的“眼球追踪”
以往的“眼球追踪”技术是一项科学应用技术,计算机通过图像捕捉或者扫描用户的眼球以及眼周细微的变化进行追踪,洞察用户的状态和需求,并进行响应,促使用户达到用眼睛控制设备的目的。
“眼球追踪”具有广泛应用,并已被用户体验研究、心理学和神经营销领域的许多研究人员用于研究用户行为。有意思的是,在前段时间,小黑就看到有各类平台的博主购买此产品来进行测试其准确度。比如B站,随便一搜,会有99+的相关视频出来。
而苹果的“凝视选择”它更强调虚拟和增强现实系统。它支持应用于桌面级台式电脑、笔记本电脑、iPhone、iPad等现有设备,更接近于日常使用的产品上。
那么“凝视选择”的技术跟以往的“眼球追踪”有些不同,但是又类似于以前的技术。理论上讲,相同点就是所有人都能用眼睛操作计算机。而技术层面上,“凝视选择”则是通过寻找“用户瞳孔的中心,或者眼球的旋转中心”来确定“用户眼睛的视轴”,透过控制器来确定用户的眼睛位置和注视点,从而移动到该区域选中文本。
但问题是,当两个人同时观看同一台设备时,机器会以哪一个人的注视点为准?
有外媒Apple Insider认为,苹果可能会让设备不断扫描用户的眼睛,来确认用户注视的位置。实际上可以理解为,就像平时在激活一台新手机时,在设置Face ID屏幕锁时,会不停的扫描用户的面部进行校对。
为了让设备更加了解用户的眼睛使用方式、更准确的进行眼控工作,也会有一套进行校准程序。例如,通过跟踪在屏幕上移动的点、视频或者图像来执行校准,从而让用户拥有一个独一无二的视觉控制。
那么它适用于所有人吗
看完它的技术,操作起来似乎一点都不难,小黑觉得非常“易上眼”。为了实现对用户更精确的跟踪,传感器只需要找到用户的瞳孔,确定用户的眼睛正在看哪里然后随之感应,因此它的落地场景将会越来越广泛。
即使使残障人士操作,比如手不灵活、渐冻症患者等等。这样,无论是想跟朋友还是家人,都可以互相传递信息。
这些看起来不难,但如果专家们想要发展一种在受限环境下操作的眼球追踪系统,还要始终适用于所有人,以及各种环境使用的话,仍然非常极具有挑战性。
但经过研究者们不懈地努力,专心致志地进行研发,并在相关的专业领域积累专业知识,逐渐开发出一些令人欣喜的的技术,而且该系统恰巧适合人类在日常环境中使用。在未来,更多地设备也将被应用到,例如已投入应用的计算机,和为投入应用的汽车、家电等等。
怎么利用“凝视选择”来丰富我们的生活
在新技术面前,首先不应该去怀疑,而是考虑怎样才能更好地利用科技、为自己的生活提供帮助。
比如说,利于我们日常输入文本,在制作表格的时候,需要手动去选择文本框,但拥有“凝视选择”之后。只需要注视某个文本框,轻轻松松就能选中你需要输入内容的文本框,不仅可以释放双手,还能省去手动移动光标的时间,从而可以达到更高的办公效率。
利用“眼球追踪”控制电脑用来浏览网页、阅读信息、写邮件等。除此之外,小黑觉得比较有趣的,可以用它来玩网游。
人类利用科技给生活提供的不仅只有便利,更多的是开拓新的大门,这就是眼球追踪的作用。
十年前,苹果产品颠覆了新一代电子设备的形态。这一次,在虚拟现实的领域,苹果能否再次成为突破者,值得期待。
图源:谷歌、pixabay