- 双目视觉传感器和神经网络能否逼近人眼视觉?
- 来源:赛斯维传感器网 发表于 2017/5/8
我们知道普通双目传感器都是需要畸变校准的,比如张正友方法,但是双目的深度信息并不很好。能否用双目的图片或者视频,通过神经网络进行训练?逼近人眼的状态?
比如视察比较,是基于特征点计算的,特征点的匹配,是数学上的。并不能识别物。人眼可以很好的区分物,知道物的边界。物的边界反过来,又能更好的进行特征点匹配。
双目视觉传感器和神经网络逼近人眼视觉,难点是提高神经网络的性能。双目视觉所用传感器,不管是分辨率、镜头、频谱范围,都可以远远超过人的双眼。之所以最终表现不如人,主要原因是分析处理算法上的进展,还没有达到媲美人脑的程度。目前趁着深度学习的热潮,应该会有不少突破,毕竟原理上人脑能做到的,计算机也可以做到。而且在速度、可重复性、耐力上,计算机的性能肯定是非人脑可比的。之前看到过很多基于深度学习的模型,比如3dShapeNet,或者BING+GP-LVM+ConvNet之类。最近看到一个FusionNet,看上去应该很有效:
转载请注明来源:赛斯维传感器网(www.sensorway.cn)
- 如果本文收录的图片文字侵犯了您的权益,请及时与我们联系,我们将在24内核实删除,谢谢!
技术文摘