最近,知乎在举行 『人工智能 · 机器感知』 的圆桌讨论,我受邀成为嘉宾,所以根据自己的了解回答了这个圆桌话题下的几个问题。由于回答内容跟这个公众号的内容有所交叉,(而且感觉知乎不太适合学术讨论),所以我选了几个发布出来:
有没有将深度学习融入机器人领域的尝试?有哪些难点?
amazon picking challenge 2016中识别和运动规划的主流算法是什么?
机器人抓取时怎么定位的?用什么传感器来检测?
KUKA LBR iiwa 机械手是如何实现精密力控制的?
深度学习在路径规划上有哪些应用?
本文是该系列的第三篇,即『机器人抓取时怎么定位的?用什么传感器来检测?』。
简单地说,机器人领域中的视觉包括相机标定、物体识别、物体位姿估计三个部分;而且,根据识别的目标、方法不同,又可以进一步分为:简单的平面物体检测、有纹理的物体识别、无纹理的物体识别、基于深度学习的方法。而且,在机器人中,视觉有时候并不是完全独立的一块内容,还可以与机器人的任务规划、运动规划等相结合。
由于公式什么的太难排版,我直接放图片啦