一、ai机器感知解决机器理解世界的问题。
1.机器视觉硬件可采集周围环境信息
目前常用的视觉传感器主要有:摄像头、tof镜头和激光雷达技术。
1)机器视觉相机
机器视觉相机的目的是将通过镜头投影到传感器的图像传送到能够储存、分析和(或者)显示的机器设备上。可以用一个简单的终端显示图像,例如利用计算机系统显示、存储以及分析图像。
2)激光雷达技术
激光雷达是一种采用非接触激光测距技术的扫描式传感器,其工作原理与一般的雷达系统类似,通过发射激光光束来探测目标,并通过搜集反射回来的光束来形成点云和获取数据,这些数据经光电处理后可生成为精确的三维立体图像。采用这项技术,可以准确的获取高精度的物理空间环境信息,测距精度可达厘米级。
3)tof摄像头技术
tof是飞行时间(time offlight)技术的缩写,即传感器发出经调制的近红外光,遇物体后反射,传感器通过计算光线发射和反射时间差或相位差,来换算被拍摄景物的距离,以产生深度信息,此外再结合传统的相机拍摄,就能将物体的三维轮廓以不同颜色代表不同距离的地形图方式呈现出来。
目前tof用在智能手机的后置镜头中,用来进行测距及ar应用为主。
2.ai视觉技术算法帮助机器人识别周围环境
视觉技术包括:人脸技术、物体检测、视觉问答、图像描述、视觉嵌入式技术等。
(1)人脸技术:人脸检测能快速检测人脸并返回人脸框位置,准确识别多种人脸属性;人脸比对通过提取人脸的特征,计算两张人脸的相似度并给出相似度百分比;人脸查找是在一个指定人脸库中查找相似的人脸;给定一张照片,与指定人脸库中的n个人脸进行比对,找出最相似的一张脸或多张人脸。根据待识别人脸与现有人脸库中的人脸匹配程度,返回用户信息和匹配度,即1:n人脸检索。
(2)物体检测:基于深度学习及大规模图像训练的物体检测技术,可准确识别图片中的物体类别、位置、置信度等综合信息。
(3)视觉问答:视觉问答(vqa)系统可将图片和问题作为输入,产生一条人类语言作为输出。
(4)图像描述:需要能够抓住图像的语义信息,并生成人类可读的句子。
(5)视觉嵌入式技术:包括人体检测跟踪、场景识别等。
3.slam技术赋予机器人更好的规划移动的能力
slam,全称叫做simultaneous localizationand mapping,中文叫做同时定位与建图。在slam理论中,第一个问题称为定位(localization),第二个称为建图(mapping),第三个则是随后的路径规划。通过机器视觉的映射,机器人可以通过复杂的算法同时定位并绘制出位置环境的地图,通过slam技术可以有效解决规划不合理,路径规划无法覆盖所有地区,导致清洁效果一般的问题。
当完全不含slam的时候,由于没有地图没有路径规划,扫地机器人每次碰到障碍物会沿着随机方向折返,无法覆盖到每一个区域。当有slam的时候,可覆盖至任意区域。此外,扫地机器人还配备摄像头,用来识别鞋、袜子、动物粪便等物品,达到智能规避。
4. 基于tof机器视觉的超宽带定位技术
机器人中,基于tof技术,主要可用来进行高精度测距与定位,目前常用的就是超宽带定位技术。
uwb(超宽带)是一种无线通信技术,可用于高精度测距与定位。uwb 传感器精简设备分为标签和基站两种。其基本工作方式是采用tof(time offlight)的方式来进行无线测距,根据测距值快速准确计算出位置。
二、ai自然语言处理是人机交互的重要技术
人类获取信息的手段中90%依靠视觉,但表达自己的方式90%依靠语言。语言是人机交互中最自然的方式。但是自然语言处理nlp 的难度很大,在语法、语义、文化中均存在差异,还有方言等非标准的语言产生。随着nlp 的成熟,人类与机器的语音交互越来越便捷,也将推动机器人向更“智能化”发展。
1. 语言技术的硬件主要依靠麦克风和扬声器实现
机器人的阵列式麦克风和扬声器技术已经比较成熟,随着近年智能音箱+语音助手的快速发展,麦克风阵列和微型扬声器被广泛使用。
在钢铁侠陪伴机器人中,与用户的语音交互都依靠麦克风阵列和扬声器,此类陪伴机器人就如同会动的“智能音箱”,拓展了边界形态。
2.ai自然语言处理nlp 算法仍是人类未来尚需攻克的一大方向
目前对话机器人可分为通用对话机器人和专业领域对话机器人。自然语言处理的技术发展,将提升机器人与人类的交互体验,让机器人显得更为“智能”。
三、ai深度学习算法帮助机器人向产生自我意识中进化
1. 硬件:ai芯片技术的发展,使机器人拥有更高算力
由于摩尔定律的发展,单位面积芯片容纳的晶体管个数不断增长,推动芯片小型化和ai算力的提升。
此外,异构芯片如 risc-v 架构芯片的产生,也为ai芯片的算力提升提供了硬件支持。
2. 算法:ai深度学习算法是机器人的未来
ai深度学习算法给予机器人通过输入变量学习的能力。未来的机器人能否拥有自主意识,需要ai技术的不断发展。
深度学习算法给机器人获得自我意识提出了一种可能性。通过对神经网络模型的训练,一些算法已经可以在单点的领域超越人类,alphago 的成功,让我们看到人类在ai技术中,已可实现单类别的自我学习能力,并在一些领域,如“围棋、德州扑克、知识竞赛”等单个领域已经可以媲美甚至打败人类。
ai深度学习算法,使机器人拥有了智能决策的能力,摆脱了之前单一输入对应单一输出的编程逻辑,也让机器人更加“智能”。
但是,机器人在“多模态”领域,仍无法与人类媲美。特别是如嗅觉、味觉、触觉、心理学等无法量化的信号,仍未能找到合理的量化方式。
未来来看,多模态将是人工智能的未来。
四、ai+5g拓展机器人的活动边界,提供更大算力和更多存储空间,形成知识共享
1.4g时代,移动机器人的四大痛点
哈尔滨工业大学的朱晓蕊教授看来,现在的移动机器人存在四大痛点:
1) 工作范围受限:只能在固定的范围内执行任务,构建的地图不便于共享,难以在大尺度环境下工作。
2) 业务覆盖受限:运算有限,识别性能仍需提升;能力有限,仅能发现问题,难以快速批量部署。
3) 提供服务受限:复杂业务能力差,交互能力有待提高,特种业务部署效率低。
4) 运维成本高:部署效率低,每个场景都需构建地图,规划路经,配备巡检任务等。
这四大痛点,制约了移动机器人在4g时代的渗透。总体来说,就是机器人仍需要更多的存储空间和更强的运算能力。5g的低延时、高速率、广连接将能够解决目前的这些痛点。
2.5g对于移动机器人的赋能:
1)拓展机器人的工作范围
而5g对于机器人的最大赋能就是拓展了机器人的物理边界,5g对于tsn(时间敏感网络)的支持,使机器人的活动边界从家庭走向社会的方方面面。
我们大可以想象未来人类与机器人共同生活的场景。在物流、零售、巡检、安保、消防、指挥交通、医疗等方面,5g和ai都能够赋能机器人,帮助人类实现智慧城市。
5g将推动远程手术机器人的发展:
· 2008年12月18日,利用华为和联通搭建的5g网络,解放军医院完成了世界首例基于5g通信技术的远程机器人手术动物实验。
· 5g+手术机器人将帮助医生完成一对多,多对一的手术,并且手术覆盖多场景。
2)为机器人提供更大算力和更多存储空间,形成知识共享
5g对云机器人的推动,为机器人提供更大算力和更多存储空间:
· 弹性分配计算资源:满足复杂环境中的同步定位和制图。
· 访问大量数据库:识别和抓取物体;基于外包地图的长期定位。
· 形成知识共享:多机器人间形成知识共享。