我想构建一个具有立体视觉的电动机器人,该视觉机器人通过wifi将视觉输入发送到PC进行处理。如果可以连接2台摄像机,那么Raspberry Pi将非常适合该任务。我猜想Pi 2足以应付两个USB网络摄像头(最低8fps),但是共享的USB似乎是一个瓶颈(2个摄像头+ wifi加密狗)。

还有什么其他选择发送来自2个摄像机的输入并控制电动机(或arduino)?

评论

使用两个USB网络摄像头,您将不必担心同步。

您看过Jetson TK1吗?

您应该考虑使用Hardkernel的ODROID U3。我将它们用于MAV的立体视觉,它们效果很好。

@abarry:您是直接在U3上进行立体声匹配还是将图像帧发送到其他地方进行处理?木板对处理本身很弱,对吗?我找不到它支持GPGPU的OpenCL。

(对不起,我无法发表评论)@Kozuch:所有处理都在ODROID-U3上进行。您可以期望在OpenCV中的320x240立体声USB摄像机(黑白)上获得5-10fps,而无需并行执行任何代码。您可以在下面的ICRA 2015预印本中了解有关如何获得120 fps(8.3毫秒/帧)的信息。 USB总线足以满足两台摄像机的帧大小和速率要求。总体而言,ODROID-U2 / U3的预成型将比Pi好得多。 Andrew J. Barry和Russ Tedrake。 Pushbroom立体声,可在混乱的情况下进行高速导航

#1 楼

您可能在问太多便宜的组件。

树莓派没有2个摄像头连接,但它的兄弟Pi Compute板却有。



http://makezine.com/2014/11/03/stereo-depth-perception-with-raspberry-pi/

即使如此,您也必须编写优化的GPU代码如果您尝试在Pi上完成所有操作,则可以在汇编器中获得接近可接受的性能。

我怀疑是否还会有cpu循环来执行其他操作。

现在,我相信最好的廉价解决方案仍然是Kinect。我看到了一些最近描述的新产品,但没有有关它们如何用于机器人技术(英特尔实感,Creative Senz3D)的消息。

等待新事物,或者花更多的钱或使用Kinect。

#2 楼

我使用的立体视觉成本最低的选择是Nvidia K1板(大约200美元),集成的GPU可以被OpenCV GPU库利用,我可以通过2 720p的视频流获得30 fps以上的帧率,并且仅执行立体声深度映射。

#3 楼

我正在使用Netduino + 2和2台摄像机(可能会更多)的项目中工作,我正在使用I2C。我可以连接所有想要的摄像机。

我不知道这是否适合您,因为在我的情况下,我只需要位置即可。图像处理在相机端。

#4 楼

如果您正在使用K1和stereovision,则可能对此http://jetsonhacks.com/2015/03/25/stereolabs-zed-camera-3d-depth-sensing-gtc-2015/
感兴趣

#5 楼

不确定这在Raspberry Pi上的运行情况如何,但是Zed立体相机可以完成大部分处理istelf的工作,因此非常适合此类事情。

https://www.stereolabs.com/

评论


$ \ begingroup $
Zed是否明确要求CUDA功能?
$ \ endgroup $
–高电压
17 Mar 3 '17 at 4:56

$ \ begingroup $
啊,是的。感谢您指出了这一点。我正在从具有CUDA的NVidia Jetson TX1运行ZED。我认为ZED不适用于覆盆子pi。
$ \ endgroup $
– NickF
17年3月3日19:00

#6 楼

如果您正在使用TK1和立体声摄像头,则可以考虑以下方法:

https://devtalk.nvidia.com/default/topic/994170/jetson-tk1-and-stereo-vision /

这些立体摄像机均支持ROS:http://rosindustrial.org/news/2016/1/13/3d-camera-survey