卒研発表準備
卒業研究の発表を明後日に控え、発表練習をしているんだけど不安材料たっぷり。
自律ロボット制御の卒研
外部光の量を調整し、最も正確に進んだ時のロボットの移動軌跡。
黄緑が車体の位置のマーカーの跡、
赤が最終位置での自分の位置(とロボットが推測している位置)。
IMG n /~t-saitoh/etc/2009/2009-03-02-01-opencv-robot.jpg
この位置まで走行するのに要した時間は、約3分。
測定条件
- LI パターンマッチング画像 176×144 ドット。
- マッチングを行う画素の間隔は 4 ドット
- よって、1回のパターンマッチングにつき 176 * 144 * (2/3) / 16 = 1056 ドット の画素を比較している。
このうち上辺 176,下辺48の台形領域内でマッチングを行う。
- 角度検出の解像度 -15度〜+15度を3度刻み
- 位置検出はマップ上の位置で -25ドット〜+25ドットまで、5ドット刻み
- よって、1画像あたり10回(角度)×10回(X)×10回(Y)の1000回のパターンマッチを実行
- 1画像あたりの処理時間は、0.5秒 , 2fps
- 1画素のマッチングでは、カメラ画像のRGBと地図画像のRGBの距離の2乗を、 マッチング画素全体で合計を求め、その値が最小となる時のロボットの方向と位置より、 自分の位置を推測している。
- ロボットの動作風景(mov)
(ただし、上記の動作例とは別に撮影した、モータ速度が速めの場合)