×
嵌入式 > 技术百科 > 详情

信不信?你可以用手将物体“拽出”iPad

发布时间:2020-06-16 发布时间:
|
美国专利商标局( US Patent and Trademark Office )日前公布了苹果获得的一项专利,这项专利描述的技术通过检测手部移动来生成并修改3D物体,与微软的Xbox Kinect体感设备相似。苹果的技术允许用户使用自己的双手来建立并修改3D物体。
谁会喜欢3D手势操作?
早在20111年7月,苹果就向我们介绍了各种可能投入使用的新手势操作,这些手势操作可以被用来渲染复杂的3D对象。那时,苹果表示,在未来,产品设计工作室可以使用下一代iPad(代号为“设备100”)快速生成消费产品的3D模型。使用它,视频游戏开发者也可以快速生成数字视频游戏的3D模型;在开视频会议时,与会者的数字替身可以栩栩如生地“站”在iPad上;3D虚拟环境的使用者自然也能在他们的虚拟世界中,快速制作自己的替身或者其它物体的数字模型;而房主们可以基于航拍照片制作自己房子的3D模型,并将之添加到地图应用中去。
3D手势操作是如何实现的呢?
果介绍了各种3D手势输入。苹果的专利图(上图)说明了“设备100”是如何实现3D操作的——它包括一层触摸传感显示屏,这个显示屏会对二维和三维的手指输入动作进行识别并做出响应;一个类似CAD的应用程序,将执行用户生成或者处理二维和三维图形的命令。
下图,则向我们展示了:要在显示屏上生成一个有“凸起”效果的画面,所需的一系列的手势操作。
假设,280是一张图片(用网格表示);然后,用户可以对着显示屏使用拉、捏的手势,对图像280进行操作,比如提升到282的高度;然后,选取图像的某一点,如284,再在284这一点上使用提升的手势,这样,就会形成一个凸起的视觉效果,即286;这个凸起的高度是你刚才定位的282的高度;而284是突起部分286的最高点。
专利摘要中也表示:3D物体可以2D物体为基础建立起来。用户第一次输入的信息被检测出来识别成2D物体,显示在用户界面中,用户第二次输入的信息(3D手势输入)包括在设备屏幕附件的移动也可以被检测出来。根据用户两次输入的信息,3D物体就可以在2D物体的基础上建立起来,而且这个3D物体也可以在用户界面中显示出来
这项专利中还包括用于感应运动的近距离传感器、以及用户生成和修改屏幕上的虚拟物体的处理能力和暂时存储器。
尼可拉斯•金(Nicholas King)和 托德•本杰明(Todd Benjamin)是这个专利的发明者。该专利提交于2010年第一季度。

『本文转载自网络,版权归原作者所有,如有侵权请联系删除』

热门文章 更多
实时控制.安全.如何加速实现未来工厂落地?