楼主:
zxcvxx (zxcvxx)
2020-12-31 13:49:25苹果AR眼镜专利结合手势控制使用者接口
情报来源:
http://bit.ly/2WUHu01
苹果公司于2020年12月24日向美国专利商标局申请一项专利(US20200401804:VIRTUAL
CONTENT POSITIONED BASED ON DETECTED OBJECT),关于AR眼镜配戴提供相关信息及结
合手势操作功能,该专利与苹果传闻即将推出了AR眼镜配戴有关,例如,使用者在参观博
物馆时,透过苹果AR眼镜能看到的绘画或雕塑的资讯;又或是电影院海报透过AR眼镜显示
即将上映的电影预告片的资讯。此外专利还涉及到苹果的AR眼镜如何与使用者手势操作结
合等。
苹果宣称,光学透视型(optical see-through)头戴显示器(Head Mounted Display,
HMD)以穿戴式眼镜装置呈现,每只眼睛都有独立的透明镜片。
苹果专利申请详述使用者如何以手势与AR眼镜沟通互动。
苹果的发明涵盖了提供CGR(computer generated reality,电脑生成实境)内容的装置
、系统和方法,在特定物件(如使用者的手)的表面显示虚拟内容。
虚拟内容会与物理环境结合,呈现在使用者面前。透过选择性的将虚拟内容显示在相对于
具有可以使虚拟内容更容易被看到或理解特性的表面上,改善虚拟内容的可见性。例如,
显示虚拟内容由使用者结合手势,更容易操作。
实施例包含了使用位于头戴显示器上或与头戴显示器连结的传感器侦测和追踪手势对于头
戴显示器的位置。在各种实施方式中,侦测和追踪手的位置涉及将手的颜色或手的模型与
深度图(depth map)或类似的技术相关联,借此侦测和追踪手的形状、以及相对于头戴
显示器的姿势(例如手的方向和位置)。
苹果的专利详细介绍了使用手势与AR眼镜交流的情况。苹果指出,在一些实施例中,利用
手势启动或关闭在头戴显示器上显示使用者手部虚拟内容的功能。例如,顺时针或逆时针
旋转闭合的拳头,可以开启或关闭显示虚拟内容的功能。
在一些实施例中,使用者可以根据物理环境控制(允许或阻止)在使用者的手边显示可用
的虚拟内容。例如,在购物时显示广告或在参观时显示博物馆或景点的资讯。
在一些实施例中,使用者根据物理环境,选择显示特定的虚拟内容。例如,当走在街上时
,只允许在使用者的手边显示针对食品或餐馆的广告。
在一些实施例中,使用者可以根据需要对个别的CGR虚拟内容进行操作。例如,选择(例
如,用手指环绕)头戴显示器上可见的虚拟内容,在使用者的手上重新显示该选择的虚拟
内容。或是,使用者用左手“抓取”虚拟内容,在右手处重新显示该虚拟内容。
一些通信可以显示在使用者的手掌上。在专利图4A和4B中的实例中,可以看到使用者手中
的卡片再进行沟通。
如图4A中所示,在物理环境#405中侦测到了描绘物件#414和使用者握住该物件的手臂#410
。在图4B中,在CGR环境#430下显示虚拟内容#470在物件前面。
在一个例子中,虚拟内容可以识别或提供关于物理环境中的物体的资讯。在另一个例子中
,虚拟内容可以涉及与物理环境无关的物体。在一个例子中,在接收到虚拟内容时,该虚
拟内容显示于CGR环境中的物件给使用者观看。
苹果专利图5是一个流程图,说明了根据实施例,确定当前物理环境中合适的背景条件或
背景位置以在CGR环境中叠加虚拟内容的示范方法。
从图示例之流程图:
取得物理环境的影像 -> 根据环境影像侦测可以显示虚拟内容的物体表面位置 -> 确定虚
拟内容位置,以显示与物体表面位置相对应的虚拟内容 -> 提供CGR体验,包括在虚拟内
容位置显示真实内容和虚拟内容
除了使用者的手部动作,苹果还补充,使用找可以用任何一种感官,包括视觉、声音、触
觉、味觉和嗅觉来感知和/或与CGR虚拟物件互动。例如,一个人可以感知和/或与创造3D
或空间音讯环境的音讯物件互动。专利叙述是很抽象的,苹果并没有详细说明“音讯物件
”到底为何?