谷歌刚刚更新自家的 arcore 增强现实 api,在 1.7 版本中,主要增强了面部特效,介绍了全新的“元素”(elements)应用的设计指南。作为谷歌的移动版增强现实平台,arcore 不需要搭配专门的硬件。截止 2018 年 12 月,它已经面向 2.5 亿设备推出,并且为 pixel 3 智能机上的 playmoji 表情应用提供了技术支撑。
在今日发布的开发者版本中,其引入了一个全新的面部增强(augmented faces)api,以及一个用于学习基本原理的 arcore elements 应用程序。
arcore 1.7 为前置摄像头提供了新的 augmented faces api,可创建一个高品质的 468 点 3d 网格,以便在没有深度传感器的情况下,在用户面部叠加有趣的特效。
网格提供了虚拟坐标和特定区域的锚点,因此用户能够体验动画蒙版、眼镜、帽子、皮肤等特效,为日常应用添加这些令人愉快的效果。
谷歌提供了基于 unity 或 sceneform 的版本,就算设备的前摄不支持平面检测等其它 ar 功能,用户也可以借助该 api 获得不错的使用体验。
arcore 1.7 专注于为开发人员提供新奇的 ui 工具和更丰富的创意画布,例如让拍摄对象舞动、旋转、跳跃,且支持 sceneform 中的动画。
同时,共享摄像头支持在访问时暂停 ar 特效,以便用户拍照并立即恢复。此外昨天,谷歌还在 play store 上发布了新款 arcore elements 应用。
app 中提供了用户可与虚拟对象交互的指南和其它示例,其旨在教导开发者与设计者使用增强现实技术,来构建更美好、更动态的应用程序。
内容涵盖 ar 准则与模式,比如设计环境、创建和操作虚拟对象、实际运动、以及如何打造用户界面。
arcore elements 将使得高品质 ar 应用的制作变得更加易于使用,向您展示了如何在 ar 中达成用户的预期,鼓励用户四处走动并探索 ar 世界,以及与虚拟对象进行交互等。
[编译自:]