技术问答丨百度Lens-人类视觉能力增强利器

发布时间: 2019-09-18

  ①人眼本身只能看到物理世界,无法看到其背后复杂的信息世界; ②人类的记忆力有限,视野有限,于是会出现看了就忘、视野窄等各种问题。

  科幻片里常见这样一种“人肉外挂”:通过一系列的技术改造,主人公(比如史塔克)眼前出现的一切物体都会被自动识别,什么名称、用途、用法用量,全都可以秒速反馈回来,并被即时载入到记忆中,过目不忘。

  如今,百度 App 和简单搜索 App 上最新推出的百度 Lens功能把这种科幻场景往现实生活中拉得更近了一点!

  百度 Lens 是百度识图最新推出的基于移动端实时感知和云端视觉搜索的类人眼视觉 AI 能力,能够实现所见即所得的信息浏览体验。

  打开百度 Lens,无需拍照,Lens 将会在毫秒内自动扫描并锁定镜头内检测到的全部物体,即刻反馈“它是什么”,“它背后的相关信息”,让你随时随地拥有“移动的百科全书”。

  作为目前全球识别能力最广的智能相机,百度 Lens 已支持超过 30+场景的认知。

  例如:扫商品找同款比价格,扫植物学辨认技巧看养护知识,扫人脸测面相运势,扫菜品/食材看热量知功效做法、扫明星看八卦追行程、扫汽车了解型号价格、扫红酒查酒庄年份、扫题目搜答案看解析。

  此外还有 AR 翻译、文字/图书/海报/药品/货币/电影等多品类的认知能力。

  1. 从行为层面,它将深度强化人眼视觉理解能力,改变人类认知事物的习惯并为未来的智能眼镜奠定坚实基础。你可以借助 Baidu Lens 真正实现边走边看,不间断浏览,同时,依托于百度 Lens 背后的超级百度大脑,将确保为每个实物提供精准、深度的信息介绍,让你边看边学。

  2. 从技术层面,它首次实现了类人眼的对实时视频流数据的感知和认知能力。百度 Lens 作为目前全球最快最稳定的跨平台实时视觉 AI 能力,可以嵌入到 Android/iOS 系统部署,在移动端和智能硬件中运行,并保持业内遥遥领先的性能和效果指标。捷达vs5和柯米克哪个好消费者心中

  为了达到类人眼的视力,人工智能必须充分调动起复杂且涉及众多环节的能力。在这一过程中,百度 Lens 遇到并解决了4个核心问题。

  人眼对视觉信号反应时间170ms~400ms,新进入视野的物体能够被快速的看见,当视角发生变化时新视野的物体在被发现的同时,也能够建立与旧视野内物体的对应关系。具体到技术上,分为两个问题:单帧图像的物体检测的性能和连续帧图像物体检测的稳定性。四年级上册第一单元作文400字

  ① 单帧物体检测的性能包含准确率、召回率和检测速度。过深的 CNN,相应地耗时也都较长。而且终端 GPU 相比服务器 GPU 的性能还要拉开十倍以上的差距,耗时更长。

  因此,我们选择构建轻量级的 MobileNet 网络结构实现移动端物体检测,并且构建覆盖通用场景的百万级别通用物体检测图片数据集。针对基础模型进行压缩,进一步提升预测速度,最终可支持在手机端实现单帧多目标检测耗时60 ms 以内,主要物体检测准确率和召回率均在95%以上。

  ② 连续帧图像物体检测的稳定性是我们面临的一个新挑战,它关注解决的问题是如何量化衡量在连续帧上不断的进行物体检测时,物体是否被检测到的状态变化。

  百度提出了一种移动终端基于视觉跟踪的连续帧多目标检测方法专利,在实时连续帧数据上,用跟踪完成短时的物体状态保持,并在视野物体发生变化时,在检测模型中融合跟踪算法的输出,给出最终的稳定的连续帧物体检测结果。最终帧错误率从16.7%降低到2%。

  为了让反馈信息像放置在真实世界中的一样稳定,百度采用了 SLAM(Simultaneous Localization and Mapping)技术。在未知环境中,通过对环境的观测确定自身的运动轨迹,同时构建出环境三维地图。

  针对文字跟踪的场景,还涵盖了 Texture Mapping 技术,将文字的翻译结果,无缝地融合到源语言文字位置处,达到原生视觉效果。

  人眼会对视野内的物体先产生初步理解,例如左前方有辆汽车。当眼睛注意力集中到汽车时,再由具体认知环节分辨是宝马320还是奔驰C200。

  粗粒度语义理解模型的训练,整理构建涵盖办公、家庭生活、商场、超市、户外园区和街道等主要场景的300+标签分类标签体系,包含百万级物体局部图的数据集。

  细粒度物体认知是由一整套复杂的云端系统构成,包含万级别大规模细粒度分类模型,以及基于 ANN 最近邻向量检索构建的百度新一代视觉检索技术,支持相似图、同款商品、名人脸等检索。

  人眼在接收到视觉信号后,由大脑完美地调度,发现、跟踪和多层认知三个环节实现无缝衔接。在技术实现上,却需要考虑非常多的因素,包括用户注意力判断、注意力集中时的选帧算法、跟踪和检测算法的调度切换策略。

  通过精细的组合调度算法,我们将百度 Lens 的耗电量控制在 2%/10min 以内,满足了移动端部署对能耗的要求。

  最终,物体的发现感知、连续跟踪、粗粒度语义理解,以及根据用户行为和视觉场景动态组合和调度以上模型的 multi-task planning 算法,整体构成感知计算模块 Walle SDK,可以支持在 iOS、Android 以及服务器等多种平台部署。

  1. 在用户行为及信息理解层面,未来的百度 Lens,将会融合:多模态的交互方式、多形态的信息呈现方式以及多纵深角度的信息识别结果,带来更聪明的视觉理解体验。那个时候,借助智能设备,我们只需要动动眼睛,说一句话,我们所需要的信息就会以 AR 的方式叠加到我们面前。

  2. 在技术应用层面,百度 Lens 将会成为跨平台应用、并持续丰富物体高级感知能力的维度,促进全人类的人眼视觉能力强化。目前百度 Lens 能力由纯C++实现的跨平台运行库,核心库大小300KB,几乎可以嵌入任何支持深度学习模型运行的终端平台,例如智能硬件、一些智能摄像头、无人驾驶汽车等等。

  说了这么多,你是不是也想赶紧打开手机体验一下百度 Lens 呢?百度 Lens 的技术目前是在百度 App和简单搜索 App中的百度识图“自动拍”落地,后续会推广到其他场景。

  未来,我们会将百度 Lens 能力开放给开发者,帮助大家以极小的开发成本即可让自己的摄像头具备类人眼能力。

  而今天,你可以打开百度 App和简单搜索 App,使用百度 Lens,重新认识你身边的视界。

  *注:目前百度App iOS 11.2版本、简单搜索 iOS 3.1版本可以体验,安卓用户需要耐心等待一下,百度App 安卓11.3版本1月份可以体验,简单搜索安卓版后续也会很快上线!返回搜狐,查看更多


现场报码室| 香港正版挂牌| 香港马会开奖结果直播| 香港六和采开奖结果| www.0584.com| www.662466.com| 香港三肖中特期期准| www.235005.com| 曾道人一码中特| 开奖结果| 今晚六合开奖结果| 一肖中特免费公开资料|