北京,2023年4月20日/PRNewswire/––全球领先的全息增强现实(AR)技术提供商WiMi全息云股份有限公司(NASDAQ:WiMi)(“WiMi”或“公司”)今天宣布开发一种基于XR技术的人机交互方法和系统,该方法和系统可增强用户体验,并能在不同位置改变视角。视觉交互技术的融合促进了在虚拟世界和现实世界之间无缝过渡的沉浸式体验。
基于XR的HCI方法和系统通过收集用户的位置和观察视角来获取用户的第一人称视角图像、第二视角图像以及图像之间的配置方法和融合模式。用户观察视点包括第一人称视角和第三人称视角。该系统基于用户的观察视点和位置构建多视点融合图像,以基于配置方法和融合模式为用户提供不同的视点图像。视点图像包括第一人称视点图像和第二视点图像。在捕捉用户观察视角时,系统基于用户的位置捕捉用户命令,并获取交互任务。用户命令包括语音命令和动作命令。在获取视点图像的过程中,系统基于交互式任务的任务类型来获取视点图像。任务类型指示用户对视点图像的成像要求。根据成像要求,系统获取了配置方法和融合模式。
在获取交互任务的过程中,当交互任务对狭小空间的观察和感知能力要求较高,对遥远空间的感知能力要求较低时,用户观察视点、第一人称视角是主要视点,多视点融合图像是主要视点图像。当交互任务需要在近空间和远空间中的平均观察和感知能力时,用户观察视图、第一人称视角或第三人称视角是主视图,多视图融合图像是主视图图像或次视角图像。当交互任务在近距离和远距离空间都需要高感知能力时,用户观察视图是第一人称视图,第三人称视图是主视图,多视图融合图像是主视图和次视图的融合图像。当交互任务对狭小空间的观察感知能力要求较低,对遥远空间的感知能力要求较高时,用户观察视点,第三人称视角是主要视角,多视角融合图像是第二视角图像。当交互任务需要对近空间和远空间的一般观察和感知能力时,基于主透视图像的第一边缘来获得与主透视图像第一边缘相对应的次透视图像。将次透视图像与主透视图像缝合以生成多视图融合图像,其中用户通过用户命令在主透视图像和第二透视图像之间切换。
在此过程中,当交互任务对紧空间和远空间都需要较高的观察和感知能力时,系统基于主视角图像的第一特征获取第二视角图像中与第一特征对应的第二特征。然后,连接到第二特征的图像被融合到主透视图像。用户通过选择第一特征来获取第二特征。然后,系统基于第三特征获取与第二透视图像中的第三特征相对应的第四特征,然后将与第四特征相关的图像融合到第二透视图中。用户可以通过选择第一和第四特征来获取与第二和第三特征相对应的多视图融合图像。