创头条App
扫码下载APP
扫码下载APP

您是个人用户,您可以认领企业号

    免密码登录
  • 图形验证码
  • 获取验证码
  • 立即登录
第三方账号登录
·
·

Hello,新朋友

在发表评论的时候你至少需要一个响亮的昵称

GO
资讯 > VR/AR > Google I/O:AI让AR更强大,今年没有VR新品
分享到

Google I/O:AI让AR更强大,今年没有VR新品

时间:05-08 00:00 阅读:4183次 转载来源:青亭网

hi188| 撰文

在Google眼中,没有什么东西是不能加持AI的。从去年的Pixel 3手机单摄拍照能力秒杀其它双摄、三摄机型,到Duplex AI智能电话语音助理等都体现了谷歌强大的AI实力。

今年也不例外,虽然在本届开发者大会并没有看到太多ARCore相关消息,但现场依然展示了一些跟AR相关的场景和案例,并且我们也看到了谷歌正在将自己擅长的搜索、AI、计算机视觉、AR等一系列技术相结合,带来体验上的大幅提升。

ARCore支持HDR模式

首先我们来看看ARCore技术,谷歌宣布ARCore应用已超1000个,目前ARCore支持设备超过4亿台(12月份数据为2.5亿台)。并且,预计本周也将发布一个更新,主要改善渲染、设计、交互方面,将支持增强型API,光预估API,环境HDR模式。

增强型图像API是指,拍摄固定图像例如海报、包装等,弹出一个的动态的图像,逻辑和玩法上相对简单,没有加入太多交互。

而光预估API是指,通过单一光源模拟数字场景的光效,加入环境HDR模式。

这个模式不得了,同样利用了HDR,其通过单目相机拍摄的画面,结合机器学习技术,让其通过360的光效模拟出高保真的HDR效果。

据了解,环境HDR主要包含三个关键API:

  • 主方向光:确定阴影方向;

  • 环境光线:模拟来自各个方向的环境光

  • HDR Cubemap:提供镜面反射效果以及高光效果

搜索+AR进入Web三维时代

谷歌宣布将在搜索结果中加入3D模型,而且还可以直接通过AR的形式直接预览,例如在线购物,或者其它娱乐场景。

现场谷歌演示了一个基于大白鲨3D模型的案例,并谈到可以让你在真实环境中了解大白鲨的体型有多大。在搜索结果中页面,你可以直接点击这个3D模型,然后进入3D模型预览界面,之后可以选择AR模式实景预览。

哎,怎么感觉跟苹果去年在WWDC推出的USDZ文件格式以及ARKit 2.0有点类似呢?

实际上,两者都是将3D模型与AR实景预览结合起来,只不过苹果是联合皮克斯开发了一种新的3D文件格式,而谷歌虽然没有提及3D文件格式形态,但估计以obj等主流格式为主,毕竟开放嘛。

而应用层面来看,苹果的USDZ文件格式可以嵌入到任何网页、App中,而谷歌则厉害了,凭借自家搜索引擎,可以直接在搜索结果页面进行展示。

由此来看,3D文件格式Web化竞争要开始了,国内搜索引擎要加油啊,不要总是在广告上费工夫了。

青亭网了解,3D AR搜索将于5月晚些时候正式开放。对于开发人员而言,只需添加几行代码即可支持该模式。目前, 谷歌已经联合NASA、New Balance、三星、沃尔沃、Target等合作,为他们的3D模型提供了支持。

从当前结果来看,大多数人更多是希望在搜索中获得结果,而在这个过程中,将搜索结果变得有趣就非常重要,3D模型和AR的加入就是非常重要的一环,这直接将以往2D页面互动提升到三维交互。

融合搜索、更智能的Google Lens来了

如果说只是将3D模型和AR与搜索结合还不够的话,那这项功能可以说是颠覆体验的大杀器。谷歌在去年推出Google Lens非常受大家欢迎,以往大家都是通过文字去搜索,这项技术直接让你通过手机拍照进行搜索。

本届Google I/O大会上,谷歌展示了基于Google Lens的新升级。例如,在拍摄菜单的同时会以星标形式显示出类似大众点评中受欢迎的餐品,当你点击这道菜时,还会有更多详细信息和大家的评价等,这些都是基于计算机视觉和机器学习以及搜索技术实时完成的结果。

甚至,在买单时你可以将Lens拍摄小票,它会显示出菜单计算价格以及小费等,或者AA制快速计算分摊价格。

也就是说,以前我们通过Google Lens进行识别显示场景中的物体,现在则可以基于识别到的物体进行在搜索的过程。

据了解,以搜索菜单为例,Lens首先需要识别菜单上的菜有哪些,这就需要识别文字、样式、大小、颜色等内容,并且如何区分不同的菜肴也是一个复杂的过程,这是之前能够完成的。现在,Lens还会将搜索到的菜品与地图中餐厅照片、点评网中的评论相结合。

左:日文原文,右:英文译文

此前大家使用Google Lens较多直接的就是拍摄翻译,而现在拍摄翻译过程更简单,翻译后的结果会直接覆盖原有文本,看上去更为直观,据悉已支持100多种语言。

同时,谷歌还透露一个基于数字场景和物理场景融合的例子。例如将在博物馆中你可以拍摄某展品会看到展品背后的一些故事,拍摄杂志上的一道美食可弹出食谱等。

去年12月份,谷歌宣布Google Lens可识别产品数量已超过10亿,其背后的TensorFlow开源机器学习框架,在过去一年中其准确度有了大幅提升。

另外,根据谷歌描述全球有8亿成年人还存在阅读障碍(指不认识字),他们不能读懂公交车站牌等信息。因此,谷歌打算通过将Lens看到的文本内容直接用语音朗读出来帮助这部分人群,从而让他们更易于理解,同时也可以点击某个单词了解更多详情。

据悉,该功能将率先在Google Go中推出,这是一个低功耗、售价低余50美元的安卓手机,而且其安装包仅100kb。

Pixel手机率先支持谷歌地图AR导航

同时,今天谷歌还推出一款Pixel 3a系列手机,并宣布此前测试的谷歌地图AR步行导航功能正式兼容自家Pixel手机,今天即可支持。

青亭网了解,谷歌地图AR导航功能加入了VPS技术,其通过拍摄到的基于已知位置的图像提取分析“关键视觉特征”来构建AR导航场景。

至于何时支持其它机型,谷歌暂未透露。

Pixel 3a不支持Daydream,今年没有VR新品

根据TheVerge报道,谷歌在I/O大会之前就表示:Pixel 3a将不支持Daydream VR盒子,主要原因是“解决方案和帧率”问题导致不兼容。

其中最大原因可能就是处理器达不到运行需求,因为Pixel 3a为骁龙670处理器,这是一颗中端处理器。

值得注意的是,当前部分高端OLED安卓手机不支持Daydream,其中三星S10也不支持,自家Pixel 3a也不支持,Daydream正在边缘化,也表明VR在谷歌内部进展变得缓慢。

另外,Google的VR&AR负责人Clay Bavor表示:今年不会推出新款VR一体机,即便Oculus Quest这类双6DoF机型即将发货。

Clay Bavor谈到:在VR方面我们关注的重点是VR真正可以带来的好处,以及对应的服务,例如我们推出Quest版《Tilt Brush》;我们的YouTube VR上有超过100万个VR视频,是全球最大的VR媒体库;我们也有Owlchemy公司,并制作了《Vacation Simulator》、《Job Simulator》等,让VR游戏变得更有趣。

也就是说,即便谷歌在VR硬件上放缓速度,但并不意味停缓VR其它的工作。

关于下一代产品是VR还是MR,Clay Bavor并没有给出明确的答复:谷歌未来的硬件或将专注于实用性,更多的还处于深度研发模式,我们需要精心打造一套标准,让他们能够很好的连接起来,创造出更优秀的体验。

(END)

 
   推荐阅读    

 
每天五分钟,轻松了解前沿科技。              —— 青亭网  

声明:本文由青亭网企业号发布,依据企业号用户协议,该企业号为文章的真实性和准确性负责。创头条作为品牌传播平台,只为传播效果负责,在文章不存在违反法律规定的情况下,不继续承担甄别文章内容和观点的义务。

评论

未登录的游客
游客

青亭网
青亭网
关注企业号
0
分享次数
0

青亭网是行业内最具影响力的媒体,从商业与技术角度深度报道行业创业公司。网站与清华大学、斯坦福商学院、中科院、北理工等学术机构及国内顶级投资机构开展多种业务合作。

TA的其他文章

    为您推荐
  • 推荐
  • 人物
  • 专题
  • 干货
  • 地方
  • 行业
+加载更多资讯

阅读下一篇

青亭峰会提前看,这些VR/AR应用正悄悄赋能传统产业

青亭峰会提前看,这些VR/AR应用正悄悄赋能传统产业

返回创头条首页

©2015 创头条版权所有ICP许可证书京ICP备15013664号RSS