indoor mobile robot navigation by central …saitoh/paper/2009_08_saitoh...extended summary...

10
Extended Summary 本文は pp.1576-1584 Indoor Mobile Robot Navigation by Central Following Based on Monocular Vision Takeshi Saitoh Non-member (Tottori University, [email protected]) Naoya Tada Non-member (Tottori University) Ryosuke Konishi Member (Tottori University, [email protected]) Keywords: indoor mobile robot, boundary detection, obstacle detection, collision avoidance movement 1. Introduction Our aim is development of the indoor delivery service mo- bile robot. Then, this paper describes the mobile robot that moves automatically in unknown environment. The robot applies obstacle detection method. When the obstacle ex- ists, the avoidance or stop movement is worked according to the size and position of the obstacle, and when the obstacle does not exist, the robot moves at the center of the corridor, called center following movement. 2. Algorithm The process flow of our mobile robot is as follows roughly. The frontal view information is obtained by using the color imaging camera which was mounted in front of the robot. Then two boundary lines of the wall and corridor are de- tected. To detect these lines, we apply not a normal Hough transform but a piece wise linear Hough transform to reduce the processing time. Furthermore, to detect correct bound- ary lines, we focused the density of the relationship of the wall and baseboard. Ulrich and Nourbakhsh proposed appearance based obsta- cle detection method. However, this method is unsuitable for our problems. There are a lot of reflected region by the sunlight or fluorescent light. Then, we proposed modified method based on their method. As the space between two boundary lines, namely, the detected corridor region, we ap- ply the proposed obstacle detection method. When an obstacle exists, the size and place of obstacle is computed, and then, the robot works the avoidance or stop movement according to the information of obstacle. Other- wise, it moves toward the center of the corridor automati- cally. 3. Experiment We developed a mobile robot based on commercial pow- ered wheelchair, and a camera is equipped in front of the robot. The main computer of our robot is a laptop com- puter. Though a reference region for the obstacle detection can be set up freely, a point of 100cm ahead is set the top Fig. 1. Resulting routes of the moving experiment of the reference region considered the moving speed of the mobile robot. Moreover, we set the observation area from 100cm to 200cm to check obstacle exists or not. In this re- search, the boundary detection, the stop experiment, and automatic moving experiment were carried out. Figure 1 shows the typical result of eight experiments of 21 moving experiments. The central line in each figure is the result- ing route. As the results, we confirmed our robot moves a long course of 80 m while avoiding several obstacles on the corridor. 4. Conclusion We concluded that our robot can be stop with the range from 100cm to 200cm though there was a difference in the distance that actually stopped according to the size of the ob- stacle. Furthermore, we confirmed both movements of avoid- ance and center following movement were able to work surely. – 18 –

Upload: others

Post on 05-Jul-2020

0 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Indoor Mobile Robot Navigation by Central …saitoh/paper/2009_08_saitoh...Extended Summary 本文はpp.1576-1584 Indoor Mobile Robot Navigation by Central Following Based on Monocular

Extended Summary 本文は pp.1576-1584

Indoor Mobile Robot Navigation by Central Following Based on

Monocular Vision

Takeshi Saitoh Non-member (Tottori University, [email protected])

Naoya Tada Non-member (Tottori University)

Ryosuke Konishi Member (Tottori University, [email protected])

Keywords: indoor mobile robot, boundary detection, obstacle detection, collision avoidance movement

1. Introduction

Our aim is development of the indoor delivery service mo-

bile robot. Then, this paper describes the mobile robot that

moves automatically in unknown environment. The robot

applies obstacle detection method. When the obstacle ex-

ists, the avoidance or stop movement is worked according to

the size and position of the obstacle, and when the obstacle

does not exist, the robot moves at the center of the corridor,

called center following movement.

2. Algorithm

The process flow of our mobile robot is as follows roughly.

The frontal view information is obtained by using the color

imaging camera which was mounted in front of the robot.

Then two boundary lines of the wall and corridor are de-

tected. To detect these lines, we apply not a normal Hough

transform but a piece wise linear Hough transform to reduce

the processing time. Furthermore, to detect correct bound-

ary lines, we focused the density of the relationship of the

wall and baseboard.

Ulrich and Nourbakhsh proposed appearance based obsta-

cle detection method. However, this method is unsuitable

for our problems. There are a lot of reflected region by the

sunlight or fluorescent light. Then, we proposed modified

method based on their method. As the space between two

boundary lines, namely, the detected corridor region, we ap-

ply the proposed obstacle detection method.

When an obstacle exists, the size and place of obstacle is

computed, and then, the robot works the avoidance or stop

movement according to the information of obstacle. Other-

wise, it moves toward the center of the corridor automati-

cally.

3. Experiment

We developed a mobile robot based on commercial pow-

ered wheelchair, and a camera is equipped in front of the

robot. The main computer of our robot is a laptop com-

puter. Though a reference region for the obstacle detection

can be set up freely, a point of 100cm ahead is set the top

Fig. 1. Resulting routes of the moving experiment

of the reference region considered the moving speed of the

mobile robot. Moreover, we set the observation area from

100cm to 200cm to check obstacle exists or not. In this re-

search, the boundary detection, the stop experiment, and

automatic moving experiment were carried out. Figure 1

shows the typical result of eight experiments of 21 moving

experiments. The central line in each figure is the result-

ing route. As the results, we confirmed our robot moves a

long course of 80m while avoiding several obstacles on the

corridor.

4. Conclusion

We concluded that our robot can be stop with the range

from 100cm to 200cm though there was a difference in the

distance that actually stopped according to the size of the ob-

stacle. Furthermore, we confirmed both movements of avoid-

ance and center following movement were able to work surely.

– 18 –

Page 2: Indoor Mobile Robot Navigation by Central …saitoh/paper/2009_08_saitoh...Extended Summary 本文はpp.1576-1584 Indoor Mobile Robot Navigation by Central Following Based on Monocular

論 文

単眼カメラを用いた中央走行型の屋内移動ロボット非会員 齊藤 剛史∗ 非会員 多田 直也∗

正 員 小西 亮介∗

Indoor Mobile Robot Navigation by Central Following Based on Monocular Vision

Takeshi Saitoh∗, Non-member, Naoya Tada∗, Non-member, Ryosuke Konishi∗, Member

This paper develops the indoor mobile robot navigation by center following based on monocular vision. Inour method, based on the frontal image, two boundary lines between the wall and baseboard are detected.Then, the appearance based obstacle detection is applied. When the obstacle exists, the avoidance or stopmovement is worked according to the size and position of the obstacle, and when the obstacle does not exist,the robot moves at the center of the corridor. We developed the wheelchair based mobile robot. We estimatedthe accuracy of the boundary line detection, and obtained fast processing speed and high detection accuracy.We demonstrate the effectiveness of our mobile robot by the stopping experiments with various obstaclesand moving experiments.

キーワード:屋内移動ロボット,境界線検出,障害物検出,衝突回避動作Keywords: indoor mobile robot, boundary detection, obstacle detection, collision avoidance movement

1. はじめに

本研究では学校,病院,オフィスなどの屋内で書類などを自動配達する移動ロボットの開発を目的としている。この場合,ロボットの走行環境は歩行者の有無などが変化するため静的環境でなく動的環境を想定することが望ましい。そこで本論文では,走行環境情報を事前に必要とせずに,1台のカメラ画像を用いて廊下中央を自動的に走行する屋内移動ロボットについて述べる。近年,自動走行型の移動ロボットに関する研究は盛んに

取り組まれている。自動走行させるためには走行環境の情報取得が重要な課題である。この課題を解決するために超音波センサ,レーザーレンジファインダ,カメラなどの各種センサが用いられている。超音波センサは安価であるが,指向性が低いために角度分解能が低く,壁面のような平面では鏡面反射を起こし計測精度が低下する。レーザーレンジファインダは高精度,高解像度の距離情報を取得できる利点をもつが,処理が複雑になり高価である。また,距離情報に基づくセンサは廊下などの走行面に存在する小さい物体や平らな物体を検出できない。一方,カメラ画像は,距離ベースのセンサに比べ取得できる距離情報の精度は低下

∗ 鳥取大学大学院工学研究科〒 680-8552 鳥取市湖山町南 4–101

Graduate School of Engineering, Tottori University

4–101 Koyama-minami, Tottori-shi, Tottori 680–8552

するが,1台あるいは複数台のカメラを用いて走行環境を取得する様々な手法が提案されている。ステレオビジョンは複数台のカメラを用いることにより

超音波センサや赤外線センサなどと同様に距離情報を計測することが可能である (1)。しかし複数台のカメラを用いるため処理が複雑になる。全方位カメラは 1台のカメラでロボットの全周囲環境を一度に取得できる (2)~(4)。このため,ロボットの前方だけでなく,左右や後方の情報を同時に収集することができる。しかし,全方位カメラは特殊なカメラであり,全周囲を撮影するためにロボット上部にカメラを搭載する必要があるためロボットの外観に制限を与える問題がある。さらに取得画像から直接障害物や壁等を検出することは困難なため,パノラマ画像への変換処理を要する。また 1台のカメラのみを用いた移動ロボットも数多く提案されている (5)~(10)。ステレオビジョンや全方位カメラに比べると取得できる情報は前方のみであり,情報量が少ない。しかし,ロボットが前に移動するのであれば,前方以外の周囲環境に対してはカメラを用いずとも他の超音波センサなどで補う手段も考えられる。さらに 1台のカメラ画像のため処理量が少なくなる利点をもつ。カメラ画像を利用した屋内移動ロボットにおいて,事前

に走行環境のマップを与える手法が提案されている (10)。環境情報が既知であれば目的地までの経路を与え,その経路に沿って走行する手法が主流である。また環境情報の与え方には様々な手法がある (11)~(15)。道木らはドアなどのテン

c© 2009 The Institute of Electrical Engineers of Japan. 1576

Page 3: Indoor Mobile Robot Navigation by Central …saitoh/paper/2009_08_saitoh...Extended Summary 本文はpp.1576-1584 Indoor Mobile Robot Navigation by Central Following Based on Monocular

中央走行型の屋内移動ロボット

プレート画像を登録してマッチング処理による自己位置推定 (11),Murilloらは閉じたドアだけでなく,開閉を含めたドアの検出 (12),Moradiらは廊下面でなく天井を観測して壁を検出 (13),Liuらは壁の下側にある幅木を 3次元モデル化し,モデルベースマッチングを適用して廊下を認識している (14)。しかし,これらの対象物は事前に登録する必要があり,さらに移動物体などマップに存在しない物体に対する対応が困難な問題がある。一方,各種センサから取得したランドマークなどの情報を利用して自己位置推定と地図生成を同時に行う SLAM(Simultaneously Localization andMapping)が提案されている (1) (16)~(20)。SLAMを適用することにより,未知環境を走行することが可能になる。これらは全方位カメラやステレオビジョンを用いており,前述の処理が複雑になる問題がある。また SLAMに関する研究の多くは自己位置の推定および地図の生成を正確に実現することを主な目的としている。そのため,後述の廊下中央走行および回避スペースが無い場合を考慮した経路計画はなされていない。未知環境における航行方法に関しては,壁沿い走行 (3)と

中央走行 (5) (6)が提案されている。廊下には柱による凹凸が多く見られる。このため壁から一定距離を保ちながら走行する壁沿い走行は,柱の影響により経路が複雑になるためロボットの制御が煩雑かつ走行時間が長くなる。一方,中央走行は通行人に迷惑を与えるが,走行速度を人の歩行速度より遅くすることにより,人が容易に避けられるようになる。また従来の中央走行では,消失点を走行方向として与えている。この場合,壁付近から走行させると〈4・2〉で後述するとおり,直ぐに廊下中央に戻らない問題がある。自動走行する上で,障害物や壁との衝突回避は重要な問

題である。従来手法では各種センサを用いて壁あるいは障害物から一定距離を保つように走行する手法が提案されている (3)。また非ホロノミック制御によりフリースペースの中央へ走行する手法も提案されている (4)。これらの手法は回避動作を含めて滑らかな走行を実現している。しかしこれらの文献では,衝突回避動作は回避動作しか考慮されておらず,走行経路に障害物を回避するスペースが無い場合に関して言及されていない。本研究では未知環境でも廊下の走行が可能な移動ロボッ

トの開発を目的としている。そのためランドマークやマップ情報を利用せずとも航行するために中央走行型の移動ロボットを対象とする。本論文では消失点でなくロボットに近い前方の廊下中央を走行方向として与えることにより,直進動作においてロボットの走行位置が廊下中央を外れた場合でも直ぐに廊下中央に戻ることを実現する。また衝突回避動作として回避動作のみでなく,回避スペースが無い場合は停止動作を適用させ,障害物の移動により走行可能な場合は再び廊下中央を走行させる。回避動作は滑らかな経路ではなく,折れ線的な経路を走行させる。これにより回避後に短い距離で廊下中央へ戻り,次の障害物へ対応可能にする。これに基づき 1台のカメラ画像を用いて廊下中央

を走行し,障害物が存在する場合には,障害物の位置と大きさに応じて衝突回避動作を行う移動ロボットを開発する。また自動配達を目的とするため,長い距離を衝突せずに走行することが必要である。本論文では様々な走行実験を実施することにより本手法の有効性を示す。

2. アプローチ

本研究では図 1に示すような電動車椅子をベースに,一般に市販されている 1台のUSBカメラ,ノート PCから構成される移動ロボットを構築する。ロボットのサイズは全長LR = 116cm,全幅WR = 56cm,カメラは車軸の中心から前方 CL = 87cm,地上高 CH = 40cm,仰角 Cφ = −15◦

の下向き角度でロボットの先端に搭載する。カメラより取得する画像サイズは 320 × 240画素である。画像例を図 2に示す。画像下端はロボットの前方約 60cm,上端は前方約 20mが写る。ロボットの走行速度は 22.9cm/sとする。本研究で開発する移動ロボットは次の性質をもつ。•事前にランドマークやマップ情報などの走行環境を必要としない。

•特殊な装置を必要とせず,1台の一般的なカメラのみを用いて走行環境をリアルタイムで認識する。

•前方に障害物が存在する場合,障害物のサイズや位置に応じて回避動作あるいは停止動作を行わせ,障害物が存在しない場合は廊下の中央を走行する。

本論文で開発する移動ロボットの処理の流れを図 3に示す。(1)ロボットに搭載されているカメラを通じて前方情報を画像として取得する。(2)画像より濃度値を考慮したエッジ検出により壁と廊下の境界線を効率よく検出する。境界線の検出には,処理時間と精度を考慮して区分的 Hough変換法 (21)を適用する。(3)検出された境界線間,すなわち走行領域内より障害物領域を抽出する。障害物領域の抽出手法として,UlrichとNourbakhshが提案したアピアランス

Fig. 1. Wheelchair based mobile robot.

(a) (b)

Fig. 2. Original images.

電学論 C,129 巻 8 号,2009 年 1577

Page 4: Indoor Mobile Robot Navigation by Central …saitoh/paper/2009_08_saitoh...Extended Summary 本文はpp.1576-1584 Indoor Mobile Robot Navigation by Central Following Based on Monocular

Fig. 3. Flowchart.

ベース手法 (22) の改良法を提案する。(4) 走行領域において,障害物が検出された場合には,障害物の位置とサイズを計測し,回避動作あるいは停止動作のどちらを行うか判断する。障害物が存在しない場合は,境界線間の中央を進行方向として廊下の中央を自動的に走行する。ここで本研究では,屋内廊下の走行を想定しており,障害物としては人物や植木など一般的に廊下に存在する物体とする。

3. 障害物検出

本論文では Ulrichと Nourbakhshが提案したアピアランスベースの障害物領域の抽出法 (22)(従来手法と呼ぶ)を改良した手法を提案する。従来手法は画像全体に対して障害物領域の抽出を適用する。本研究では屋内移動ロボットを想定しており,カメラ画像には図 2に示すように,廊下などの走行面だけでなく,壁や扉が写っている。また学校や病院,一般的な建物などの廊下は柱などにより凹凸が存在するが,概して直線と見なせる。そこで,従来手法と異なり,最初に壁と廊下の境界線を検出して廊下領域を抽出する。抽出された廊下領域に対して障害物領域の抽出法を適用することにより,処理量の軽減を図る。さらに検出した境界線を利用してロボットの進行方向を決定する。〈3・1〉 廊下境界線の検出〈3・1・1〉 直線検出法 画像中からの直線検出には様々な手法が提案されており,本研究でも多くの文献で用いられているHough変換を適用する。一般的な Hough変換では,画像空間(x− y空間)の 1点は θ− ρ空間の 1本の軌跡に対応する。この関係式は ρ = x cos θ + y sin θ と表される。図 4(a)に示すような x− y空間の 1本の直線上の点を θ− ρ空間に写した場合,これらの点から作られる θ− ρ

空間上での軌跡は図 4(b)に示すように 1点 Q1 で交わる。ここでHough変換は計算コストが多い問題がある。そこ

で本論文では,処理時間の高速化を図るために区分的Hough変換(Piece-wise Linear Hough Transform; PLHT)を用いる (21)。PLHTは,輿水と沼田によって提案された手法であり,三角関数計算と乗算の演算回数を減らし,傾き増分の加算のみで直線を検出できる。PLHTは,図4(c)に示すように θ−ρ空間において θ軸を適当な間隔でm分割し,分割点を θk, k = 1, 2, · · · , mと表す。区間 (θk−1, ρk−1)−(θk, ρk)を結ぶm本の直線セグメントを考え,これらを結ぶ折れ線群を区分的 Hough直線とする手法である。区分的 Hough直線の方程式は次式で表される。

(a) x − y plane (b) θ − ρ plane (c) θ − ρ plane of

PLHT(m=2)

Fig. 4. Overview of Hough transform and PLHT.

(a) Applied result of Sobel

vertical edge detector

(b) Applied result of the proposed

edge detection between the wall

and baseboard

Fig. 5. Binary edge images.

ρ − (x cos θk−1 + y sin θk−1)

=x(cos θk − cos θk−1) + y(sin θk − sin θk−1)

θk − θk−1

×(θ − θk−1)

〈3・1・2〉 濃度値を考慮した境界画素の検出 PLHTを適用するために,入力画像から壁と廊下の境界画素を検出する。本研究で走行対象とする建物では壁の下側,すなわち壁と廊下の境界には,図 2に示すような壁や廊下よりも濃い色の幅木が存在する。そこでこの幅木に着目し境界画素を検出する。境界画素を検出する手法としてエッジ検出処理がある。

図 2(a) に対して Sobel フィルタを適用して垂直エッジを検出した画像を図 5(a)に示す。幅木の高さは約 7.5cmであり,画像処理によるエッジ検出を適用すると,壁と幅木,幅木と廊下の二つのエッジが検出される。一般的な廊下はワックスが塗られているため壁よりも反射率が高く,廊下には幅木やドア,照明などが写りこむ。特に境界付近の廊下には幅木が写りこむため境界が不明瞭になる。一方,壁と幅木の境界は明瞭である。そこで,本論文では壁と幅木のエッジを廊下と壁の境界として検出する。まず入力画像より Sobelフィルタを用いて 2値垂直方向

エッジ画素(仮エッジ画素と呼ぶ)を求める。仮エッジ画素の濃度値が上側画素の濃度値より低い場合にのみエッジ画素とする。これは,壁の濃度値が幅木の濃度値より高い性質を利用している。図 2(a)に対して濃度値を考慮したエッジ画像を図 5(b)に示す。幅木の上側のエッジのみが検出されている。さらに検出されるエッジ画素が少なく,次節で述べる PLHTを適用する際の処理時間の高速化を図れる。ここで Sobelフィルタによる境界画素の検出法を edge 1,

提案する境界画素検出法を edge 2と呼ぶ。

1578 IEEJ Trans. EIS, Vol.129, No.8, 2009

Page 5: Indoor Mobile Robot Navigation by Central …saitoh/paper/2009_08_saitoh...Extended Summary 本文はpp.1576-1584 Indoor Mobile Robot Navigation by Central Following Based on Monocular

中央走行型の屋内移動ロボット

(a) (b)

Fig. 6. Detected boundary lines of Fig.2.

〈3・1・3〉 PLHTによる境界線の検出 エッジ検出により検出されたエッジ画素を用いて PLHTを適用することにより左右二つの直線を境界線として検出する。図 2に対して境界線を検出した結果を図 6に示す。図中の黒線が検出された境界線である。〈3・2〉 障害物領域の抽出〈3・2・1〉 UlrichとNourbakhshの手法 廊下領域は,前節で検出された左右の境界線の間であり,障害物領域の抽出処理を廊下領域内に適用する。従来手法では画像内に設けた参照領域のヒストグラムを作成し,このヒストグラムを用いてアピアランスベースで障害物領域を抽出する。図 7(a-1)(b-1)(c-1)(d-1)(e-1)に示すように画像下側に台形領域(参照領域と呼ぶ)を設け,この参照領域内のヒストグラムを生成する。処理対象画素に対して,各画素の色が属するヒストグラムのビンの値を求め,しきい値より低い場合は参照領域と異なる色,そうでない場合は同じ色と判定する。これにより,参照領域内に含まれない色の画素を障害物画素として検出する。ただし本処理は,1)障害物は廊下領域と異なる色,2)廊下は平面,3)突出した障害物は存在しない,の三つの仮定をもつ。本論文では,最初に従来手法を適用した。まず入力画像を

RGB色空間からHLS色空間に変換する。次に参照領域より L値のヒストグラムを作成し,廊下領域の画素 (x, y)のL値 L(x, y)の属するヒストグラムのビン値Hist(L(x, y))としきい値 TL を比較する。Hist(L(x, y)) > TL の場合(x, y) を廊下画素に属させ,Hist(L(x, y)) ≤ TL の場合(x, y)を障害物画素に属させる。従来手法を適用した結果を図 7(a-2)(b-2)(c-2)(d-2)(e-2)に示す。参照領域内に存在しない蛍光灯や太陽光などの光源が廊下に写りこみ,さらに人物の足影や遠方の暗い部分が廊下領域であるにもかかわらず,誤って検出されている。〈3・2・2〉 提案する障害物領域の抽出法 従来手法の問題を解決する障害物領域の抽出法を提案する。まず光源の写りこみを除去するために,経験的に設定し

た高輝度画素を除去する。具体的には L値が 0.70以上の高輝度の画素は参照領域に含まれていなくとも,廊下領域に属させる。その結果を図 7(a-3)(b-3)(c-3)(d-3)(e-3)に示す。図 7(a-3)(b-3)を観察すると,図 7(a-2)(b-2)の従来手法に比べ,光源領域が除去されていることを確認できる。単に高輝度領域を除去するだけでは,図 7(b-3)(c-3)(d-

3)(e-3) に示すような中間的な輝度値の画素が障害物とし

て残る。そこで二つの手段を採る。(1)障害物と廊下の境界には edge 1 で検出可能なエッジが存在する性質を利用する。図 7(a-4)(b-4)(c-4)(d-4)(e-4)は edge 1の適用結果である。人物の靴やゴミ箱などの障害物と廊下の境界には影が生じており,この影がエッジとして検出される。一方,光源や影の写りこみは廊下が鏡などのように全反射する材質でない限りぼやけており,エッジ値は小さい。この性質を利用するため,〈3・1・2〉で求めた edge 1による 2値エッジ画像を用いる。(2)移動物体の動きによりエッジがぼやけていたり,低輝度値の障害物の影が廊下に写りこむことにより廊下の輝度値が低くなり (1)では対処できないことがある。図 7(e-1)の人物の足の場合,動きにより輪郭がぼやけてしまい図 7(e-4)に示すように 2値エッジが検出できない部分が生じる。このとき,2値化の際のしきい値を低くすることによりエッジが検出されるが,逆に,廊下面に存在する偽のエッジまで検出してしまう。そこでエッジではなく物体の輝度値に着目し,L値が 0.25以下の場合は障害物とする。以上のことにより,提案手法の処理の流れは次のように

なる。最初に従来手法を適用し,障害物(仮障害物と呼ぶ)を検出する。次に仮障害物として検出された画素が 2値エッジ画素あるいは低輝度値画素でない場合は廊下領域に属させる。この判別処理を仮障害物領域の画像下側から上側へ走査し,障害物画素に判定された場合は,その画素より上側は走査しない。全仮障害物画素を走査しないため,わずかに処理の高速化を図る。提案手法を適用した結果を図 7(a-5)(b-5)(c-5)(d-5)(e-5)に示す。この結果より,障害物が正確に抽出されていることを確認できる。〈3・3〉 注目障害物領域の抽出 図 7(a-5)(b-5)(c-5)(d-5)(e-5)に示すとおり,提案手法により廊下領域に障害物領域が抽出される。移動ロボットの近くに存在する障害物領域に対しては,衝突を避けるための衝突回避動作を行う必要があるが,遠方の障害物は衝突回避動作を行わなくても構わない。そこで,前方に障害物の有無を検出する範囲[Dn, Df ], (Dn < Df )を設定する。前節により検出した障害物画素 (x, y)において,その y 座標が [Dn, Df ]の範囲内に存在する画素数を障害物領域の面積 SO[pixel]として計測し,SO > TO の場合に衝突回避動作を行わせ,そうでない場合に直進動作を行わせる。ここで TO[pixel]はしきい値である。

4. 移動ロボットの動作

〈4・1〉 画像空間と実空間の対応 前節のとおり,本論文では障害物領域を検出する範囲 [Dn, Df ] を任意に与える。また次節以降で後述する,直進,停止,回避動作を行わせるために,実空間の廊下の幅や移動ロボットから障害物までの距離が必要となる。そこで本論文では,画像空間と実空間の距離の対応を得るために,画像空間における縦軸と横軸それぞれの実空間との変換式を導出する。画像空間の縦軸 Iy[pixel]は実空間においてロボットから

電学論 C,129 巻 8 号,2009 年 1579

Page 6: Indoor Mobile Robot Navigation by Central …saitoh/paper/2009_08_saitoh...Extended Summary 本文はpp.1576-1584 Indoor Mobile Robot Navigation by Central Following Based on Monocular

(a-1) (a-2) (a-3) (a-4) (a-5)

A

B

C

D

(a-6)(a) no obstacle

(b-1) (b-2) (b-3) (b-4) (b-5)

A

B

C

D

(b-6)

(b) no obstacle, the distant place of the corridor is reflected by the sunlight

(c-1) (c-2) (c-3) (c-4) (c-5)

A

B

C

D

(c-6)

(c) obstacle is at a distant place

(d-1) (d-2) (d-3) (d-4) (d-5)

B

C

Q

θ

(d-6)

(d) obstacle is at the nearby place and avoidance movement is applied

(e-1) (e-2) (e-3) (e-4) (e-5)

B

Q

(e-6)

(e) obstacle is at the nearby place and stop movement is applied

Fig. 7. Obstacle detection and moving direction detection.

の距離 Ry[cm]に対応する。廊下にマーカを設置し,これらのマーカが画像のどの位置に対応するかを計測し,変換式を導出した。マーカの計測点と変換式を図 8(a)に示す。変換式は最小二乗法により導出した 4次の多項式である。画像空間の横軸 Ix[pixel]と実空間の距離Rx[cm]の変換

式を導出するために,前述と同様に廊下にマーカを設置して変換式を導出した。ただし,マーカはロボットから 100cm,200cm,300cm の 3 通りの距離に設置した。計測時のロボットの姿勢は,廊下中央に位置させて壁と平行の方向に向けさせた。マーカの計測点と変換式を図 8(b)に示す。ただし,変換式は最小二乗法により導出した 1次多項式であり,画像中央は Ix = 0である。〈4・2〉 直進動作 廊下中央を走行する場合,左右境界線の交点として得られた消失点を進行方向にする手段がある (5) (6)。しかし,消失点を進行方向にする場合,移動ロ

(a) Iy − Ry (b) Ix − Rx

Fig. 8. Conversion equation of image space and

real space.

ボットから 20m以上離れた位置を目標位置としなければならない。目標位置が遠方であり,ロボットが廊下の中央位置ではなく,壁側に位置する場合,直ぐに廊下の中央に戻らず,長い距離をかけて緩やかに中央位置に戻る。そこで本研究では,ロボットの前方 100cm地点の廊下中央位置を

1580 IEEJ Trans. EIS, Vol.129, No.8, 2009

Page 7: Indoor Mobile Robot Navigation by Central …saitoh/paper/2009_08_saitoh...Extended Summary 本文はpp.1576-1584 Indoor Mobile Robot Navigation by Central Following Based on Monocular

中央走行型の屋内移動ロボット

目標位置とする。目標位置を近く設定することにより,ロボットは中央位置から外れた場合でも,直ちに中央に戻ることが可能となる。図 7(a-6)(b-6)(c-6)は直進走行と判定されて検出された

進行方向を示している。図中,B は廊下境界線の交点,A

は境界線間,すなわち廊下の中央線が画像下端に位置した点である。また白い水平線はロボットの 100cm前方の位置であり,この線と AB の交点 D はロボットが走行するための目標位置である。画像下端の中央位置 C とD を結ぶ方向が進行方向となる。図 7(c-6)は前方に障害物が存在しているが,遠方にあるために回避動作はせずに直進走行となっている。〈4・3〉 停止動作および回避動作 停止動作と回避動作について図 9を用いて説明する。回避動作は障害物の大きさや位置に応じて,衝突しないように避けて走行し,再び廊下中央を走行させる。この際,滑らかな経路で回避させる手段も考えられる。しかし滑らかな経路の場合,ロボットが廊下中央へ戻るまでにある程度の距離を要する。回避後に短い距離で廊下中央へ戻り,次の障害物に対応させるため,ここでは図 9(a)に示すように少数パラメータで回避する折れ線的な経路を走行させる。すなわち,地点 Pから地点Qへ向かう回避角度 θと回避距離 d1 を算出し,Pでは θ回転させて d1直進してQに移動させる。Qでは−θ回転させて壁と平行な方向を向かせる。その後,障害物の奥行き程度の距離 d2 直進させ地点 Rに移動させる。Rではθ回転させて d1直進して地点 Sに移動させ,最後に−θ回転させることにより再び廊下中央に戻る。その後は直進動作を再開させる。つまり 4回の旋回動作で廊下中央に戻る。ここで,廊下に存在する障害物は 2章で述べたとおり人物や植木などであり,本論文では d2 = 100cmとした。地点Q,すなわち回避方向 θ は障害物左側(あるいは右側)の

(a) Outline course of avoidance movement

(b) Avoidance direction

Fig. 9. Avoidance movement.

走行領域の中央位置である。またQRは PSに平行である。ロボットの前方 d0 で障害物が検出された場合,実空間

における障害物の左右両側のスペース Rw∗[cm] を計測する。ただし,∗ は右側の場合 R,左側の場合 L を意味する。まず画像空間で計測できる左右両側境界の x 座標をIb∗,障害物の左右両側の x座標を Io∗ と表記する。画像空間における障害物の左右両側のスペース Iw∗[pixel]は図9(b) に示すように Iw∗ = |Ib∗ − Io∗| となる。これよりRw∗ = WC/IC × Iw∗ となる。ただし,IC [pixel]は画像空間の廊下幅 IC = |IbR − IbL|であり,WC [cm]は IC と〈4・1〉で前述した 1次多項式を用いて計測できる実空間の廊下幅である。下記の条件 (1)~(3)に従い停止動作および回避動作を行う。

⎧⎪⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎪⎩

(RwL > LR sin θ + WR cos θ + α)∩ (RwL > RwR) (1)

(RwR > LR sin θ + WR cos θ + α)∩ (RwL ≤ RwR) (2)

otherwise (3)

ただし,WR,LRはそれぞれ 2章で述べたロボットの全幅,全長である。αは LR を考慮し旋回を行うときに壁や障害物に衝突するのを避けるために余裕をもたせたマージン距離であり,本論文では α = 20 cmとした。以上のことより,移動ロボットが衝突回避を動作させる

流れをまとめる。直進走行時に So > To を満たすフレームが Fn枚続いたとき,障害物が存在していると判断する。1枚のフレーム画像だけでは人物などの移動物体のすれ違いや追い抜きにおいても衝突回避動作を行う。静止物体の場合は直ぐに衝突回避動作を適用しても問題ないが,移動物体の場合,それらの動きにより衝突回避動作を適用する前に [Dn, Df ] の範囲外に移動することがある。このことを考慮して,複数枚のフレーム画像を用いて衝突回避動作の適用の有無を判定する。衝突回避動作が必要な場合,条件 (1)~(3)のいずれを満たすか判定する。条件 (1)を満たす場合,移動ロボットは障害物の図 9(a)に示すような左側方向に回避動作を行う。逆に,条件 (2)を満たす場合は右側方向に回避動作を行う。回避動作中は,常に障害物領域の抽出処理を適用する。正面に障害物が検出される場合は,障害物がなくなるまで停止し続ける。回避動作終了後,直進動作を再会し廊下中央を走行する。条件 (3)を満たす場合,障害物の左右両側に移動ロボットが走行できる幅がなく,移動ロボットを停止させる。この停止動作は障害物がなくなるまで停止し続ける。図 7(d-6)は回避動作と判定されて検出された進行方向を

示している。図中Qを通る灰色の水平線は検出された障害物の最下端の位置であり,この位置で回避方向 θを算出する。Qはロボットが走行するための目標位置である。また図 7(e-6)は停止動作と判定された結果である。図中 Qを通る灰色の水平線は図 7(d-6)と同様に障害物の最下端の位置である。

電学論 C,129 巻 8 号,2009 年 1581

Page 8: Indoor Mobile Robot Navigation by Central …saitoh/paper/2009_08_saitoh...Extended Summary 本文はpp.1576-1584 Indoor Mobile Robot Navigation by Central Following Based on Monocular

5. 評価実験

〈5・1〉境界線検出 あらかじめ撮影しておいた 10シーンの動画像に対して,Hough変換と分割数m = 9の場合のPLHT,二つの境界画素検出法(edge 1と edge 2)を組み合わせた 4通りに対して境界線検出を適用した。検出精度を評価するために,検出した境界線角度と目視で与えた境界線角度の誤差を求めた。その検出精度と 1フレームあたりの処理時間を表 1に示す。10シーンの平均フレーム数は 557フレームである。また使用した計算機はノート PC(CPU: Core2 Duo T7300 2.00GHz,メモリ: 2GB),カメラは Logicool社製 Pro 3000を使用した。表 1より,境界画素検出法によらず,PLHTの検出精度

は Hough変換より低い。しかし処理時間は大幅に改善され,edge 1で 1/4,edge 2 で 1/2に短縮されている。さらに edge 2を適用することにより,誤差 1.52◦,処理時間26.6ms/frameとなり,検出精度の向上,かつ処理の高速化を図れることを実証した。〈5・2〉 停止動作実験 次に,移動ロボットに提案手法を実装し,リアルタイムで走行環境を認識するシステムを構築した。廊下幅 200cmの廊下において,移動ロボットの前方 300cmの位置に椅子,ゴミ箱,植木,ポールなど 7種類の障害物を一つずつ置き,各障害物につき 5回,合計35回の停止動作実験を行った。障害物の横幅WO とロボットが障害物を検出した距離 d0,実際に移動ロボットが停止したときの距離 d′0 を表 2に示す。ここで停止動作を行わせるためのしきい値面積は TO = 600画素とした。また障害物存在の有無を検出する範囲 [Dn, Df ] はロボットの走行速度を考慮してDn = 100cm,Df = 200cm,危険回避動作の判定に用いるフレーム数を Fn = 5とした。障害物のサイズにより異なるが,ロボットから障害物までの距離が [Dn, Df ]で与えた範囲内で確実に停止した。これにより提案手法が正しく障害物を検出できることが確認できる。また d0 > d′0 を満たすのは,移動ロボットの制動距離による。本論文で提案する移動ロボットは,障害物を検出する

Table 1. Boundary detected result.

edge 1 edge 2

method Hough PLHT Hough PLHT

error [◦] 2.30 2.31 1.45 1.52

process time [ms/frame] 116.4 30.7 57.7 26.6

Table 2. Result of stopping experiment.

WO d0 d′0 braking

object [cm] [cm] [cm] distance [cm]

chair 57 140.6 128.0 12.6

leg of table 53 117.4 103.0 14.4

potted plant 45 162.6 150.4 12.2

cardboard 44 174.2 162.2 12.0

leg of guideboard 44 138.0 122.4 15.6

trash can 28 160.4 145.4 15.0

pole 27 137.8 128.6 9.2

と,回避動作が可能であるか判断するが,本実験では停止動作の精度を検証するため,障害物を検出した場合は必ず停止させた。表 2はWO の降順で示している。しかし机の脚の場合,

左右 2 本の幅が WO であり,真の脚幅は 3cm しかない。そのため,机の脚の横幅は 53cmと大きいにもかかわらず,停止距離 d′0 が 103cmと短い。この現象は案内板の脚や椅子においても同様の結果が見られる。また前実験と同じカメラ,ノート PCを使用したところ,処理時間は 9.7fpsであり,前方の走行環境をリアルタイムで認識可能なことを確認した。〈5・3〉 走行実験 本手法の実用性を評価するため大学内廊下において,約 15mの短距離 14回と約 80mの長距離 7回の合計 21回の走行実験を行った。代表的な 8シーンの走行軌跡を図 10に示す。図中,横軸を x軸,縦軸をy 軸とする。描画スペースにより x − y 軸の目盛り比率をx : y = 2 : 1 としている。図中の画像は,矢印で示す位置における走行時のカメラ画像である。廊下幅は 1.9m~2.5mであり,柱による凹凸が多く存在する。また壁に接したゴミ箱も存在していた。走行実験で使用した障害物は直径 38cmの植木,横幅 28cmのゴミ箱,横幅 81cmと 30cmの 2種類の傘立てである。図 10(a)はロボットの初期位置を壁側とした走行実験で

ある。初期位置から約 4mで廊下中央に位置し,廊下中央を走行した。図 10(b)は廊下中央に障害物を置いた走行実験である。障害物の両側にロボットが走行できる幅がない

Fig. 10. Resulting routes of the moving experi-

ment.

1582 IEEJ Trans. EIS, Vol.129, No.8, 2009

Page 9: Indoor Mobile Robot Navigation by Central …saitoh/paper/2009_08_saitoh...Extended Summary 本文はpp.1576-1584 Indoor Mobile Robot Navigation by Central Following Based on Monocular

中央走行型の屋内移動ロボット

ため,ロボットは障害物の手前 1.5mで停止した。図 10(c)は障害物を壁際に置いた走行実験である。障害物が壁際に位置していたため,ロボットは回避動作せずとも走行可能と判断し,中央を走行した。逆に図 10(d)は障害物を中央よりに置いた実験であり,この場合,ロボットは障害物領域を抽出した後,回避動作を行い,再び中央を走行した。図 10(e)は障害物が存在しない約 80mの長い距離の廊下走行実験である。長い距離にもかかわらず廊下に存在する広場や柱の凹凸に影響することなく直進していることが確認できる。図 10(f)~図 10(h)は三つの障害物を廊下に置いて走行した結果である。これらの中で障害物間の距離が最も短いのは図 10(h)の下方にある二つであり,障害物間の距離は 5.7mであった。この結果より,短い間隔にある障害物に対して衝突することなく,障害物を回避しながら長距離を走行できることを確認した。

21回の走行軌跡における中央走行で,最も左壁と右壁に近づいた位置を計測し,左右,すなわち x軸に対する走行範囲を求めた。その結果,最大 42cmの範囲内で中央走行していることを確認した。また x軸に対する標準偏差は平均 12.2cmであった。回避動作 16 回の内,最も壁に近づいた距離はロボットの側面から 19.6cmであった。走行中に,移動物体である人物とすれ違うことがあったが,人物がロボットとの衝突を避けて壁側を歩く限り,障害物として検出されないためロボットの走行に影響を及ぼさなかった。これより,開発したロボットは静止障害物だけでなく,移動障害物とも共存可能なことが確認できた。本実験では,障害物を意図的に設置した以外に人為的に工作しない環境で行っており,太陽光や蛍光灯は通常通りである。本実験を通じて,未知環境の長い距離においても自動走行することを確認し,有効性を実証した。〈5・4〉 評 価 本節では,提案する移動ロボットの有効性を評価するために,幅木,検出精度などについて考察する。本論文では図 2に示すような壁よりも幅木の濃度値が低

い条件において有効な edge 2の輪郭検出手法を提案した。しかし壁と幅木が同じ濃度値,あるいは幅木より廊下の方が低い濃度値の場合がある。多様な形態の廊下への対応について,本手法は濃度値の差に着目している。そのため本実験と同様に壁よりも幅木の濃度値が低い場合だけでなく,壁と幅木が同色においても廊下の濃度値が幅木より低い場合は適用できると推測する。また壁と幅木が同色かつ幅木が廊下より低い濃度値,すなわち反転した濃度値関係の場合,ロボットにその性質を提示させることにより対応できると推測する。一般に一つの建物内においては壁,幅木,廊下の色は統一されている。そのため事前に性質を提示することは利用者にとって負担ではない。〈5・1〉で示した境界線検出精度に関して,本実験でのマージン距離はα = 20cmである。これより検出角度の許容誤差は遠方であるDf = 200cmにおいてθf = tan−1 α/2

Df= 2.86◦

となる。実験結果より検出誤差 1.52◦はこの条件を満たし

ている。処理速度について,参照領域に障害物が含まれるとその

障害物を走行領域として誤って判定する。そのため本実験ではDn = 100cm,参照領域の最上部は実空間で 80cmの位置として,許容走行距離を 20cm与えている。2章で述べたとおり,移動ロボットの走行速度は 22.9cm/sである。これより 20cmを走行するには 0.873sとなる。この条件を満たすには Fn = 5を考慮すると 5.7fps以上の処理速度が必要となる。実装した処理速度は〈5・2〉より 9.7fpsであり,十分条件を満たしている。また本研究では屋内で自動配達する移動ロボットの開発

を目的としており,長い距離を衝突せずに走行する必要がある。〈5・3〉の実験結果より約 80mの長い廊下を衝突せずに走行可能であることを示した。これより本手法の有効性を示した。

6. 結 論

本研究では,1台のカメラより得られた情報をもとに画像処理を介して廊下と壁の境界線の検出および障害物を検出する手法を提案した。さらに提案手法を組み込み,未知走行環境の廊下中央を走行し,障害物のサイズと位置に応じて停止あるいは回避動作を行う移動ロボットを構築した。境界線検出について,濃度値を考慮して幅木上側のエッ

ジ画素を検出し,かつ高速な処理が可能な PLHTを適用することにより,検出誤差 1.52◦ と処理速度 26.6ms/frameを得て,検出精度と処理速度の向上を図った。移動ロボットを構築し,7種類の障害物に対する停止実

験と様々な状況を想定した 21回の走行実験を行った。その結果,障害物により回避スペースがない場合は停止し,回避スペースがある場合は回避動作を行い,障害物に衝突することなく長い距離を自動的に走行できることを確認した。本論文では折れ線的な回避経路を採用し,二つの障害物間の距離が 5.7mと短くても両障害物をそれぞれ回避できた。また廊下中央でなく壁側にロボットの初期位置を与えた場合,約 4mで廊下中央に戻ることを確認した。さらに直進動作では 42cmの範囲内で廊下中央を走行し,提案する移動ロボットが中央走行を実現していることを示した。障害物の回避動作は,折れ線的な経路である。そのため

移動物体を障害物として検出し回避動作を適用している間に,移動物体が移動すると,無駄な回避動作が生じてしまう。今後の課題として,折れ線的でなく,障害物に応じて適切に回避することが挙げられる。また開発したロボットは障害物を回避しながら廊下中央を走行することは可能であるが,直進しか行えない問題がある。そのため,今後の課題として,右左折を実現するために廊下の突き当たりや境界線上に見える曲がり角の検出が挙げられる。さらに,単に自動走行させるのではなく,目的地を与えて,目的地まで自動走行するロボットの開発が今後の課題として挙げられる。(平成 20年 8月 12日受付,平成 21年 2月 18日再受付)

電学論 C,129 巻 8 号,2009 年 1583

Page 10: Indoor Mobile Robot Navigation by Central …saitoh/paper/2009_08_saitoh...Extended Summary 本文はpp.1576-1584 Indoor Mobile Robot Navigation by Central Following Based on Monocular

文 献

(1) D. C. Herath, S. Kodagoda and G. Dissanayake: “Simulta-

neous localisation and mapping: a stereo vision based ap-

proach”, Proc. of IEEE/RSJ International Conference on In-

telligent Robots and Systems, pp.922–927 (2006)

(2) J. Gaspar, N. Winters, and J. Santos-Victor: “Vision-based

navigation and environmental representations with an omni-

directional camera”, IEEE Trans. on Robotics and Automa-

tion, Vol.16, No.6, pp.890–898 (2000)

(3) T. Joochim and K. Chamnongthai: “Mobile Robot Nav-

igation by Wall Following Using Polar Coordinate Image

from Omnidirectional Image Sensor,” IEICE, E85-D, No.1,

pp.264–274 (2002-1)

(4) A. Argyros, P. Georgiadis, P. Trahanias, and D. Tsakiris:

“Semi-autonomous navigation of a robotic wheelchair”, Jour-

nal of Intelligent and Robotic Systems, Vol.34, pp.315–329

(2002)

(5) R. F. Vassallo, H. J. Schneebeli, and J. Santos-Victor: “Vi-

sual servoing and appearance for navigation”, Robotics and

Autonomous Systems, Vol.31, No.1-2, pp.87–97 (2000)

(6) M. Ebner and A. Zell: “Centering behavior with a mobile

robot using monocular foveated vision”, Robotics and Au-

tonomous Systems, Vol.32, No.4, pp.207–218 (2000)

(7) O. A. Aider, P. Hoppenot, and E. Colle: “A model-based

method for indoor mobile robot localization using monocu-

lar vision and straight-line correspondences”, Robotics and

Autonomous Systems, Vol.52, pp.229–246 (2005)

(8) E. Hayashi: “A navigation system with a self-drive control

for an autonomous robot in an indoor environment”, Proc. of

IEEE International Conference on Robot and Human Inter-

active Communication, pp.246–251 (2007)

(9) N. Bellotto, K. Burn, E. Fletcher and S. Wermter:

“Appearance-based localization for mobile robots using dig-

ital zoom and visual compass”, Robotics and Autonomous

Systems, Vol.56, pp.143–156 (2008)

(10) M. Tomono and S. Yuta: “Indoor navigation based on an in-

accurate map using object recognition”, JRSJ, Vol.22, No.1,

pp.83–92 (2004-1) (in Japanese)

友納正裕・油田信一:「不正確さを許すマップと単眼ビジョンによる物体認識に基づく移動ロボットの屋内ナビゲーション」,日本ロボット学誌,Vol.22, No.1, pp.83–92 (2004-1)

(11) K. Doki, N. Isetani, A. Torii, A. Ueda, and H. Tsutsumi:

“Self-Position Estimation of an Autonomous Mobile Robot

with Variable Processing Time”, T. IEE Japan, Vol.128,

No.6, pp.976–985 (2008-6) (in Japanese)

道木加絵・伊勢谷尚弘・鳥井明宏・上田昭照・堤 寛次:「処理時間の変更が可能な自律移動ロボットの自己位置推定」,電学論 C,128,

6, pp.976–985 (2008-6)

(12) A. C. Murillo, J. Kosecka, J. J. Guerrero, and C. Sagues:

“Visual door detection integrating appearance and shape

cues”, Robotics and Autonomous Systems, Vol.56, pp.512–

521 (2008)

(13) H. Moradi, J. Choi, E. Kim, and S. Lee: “A real-time wall de-

tection method for indoor environments”, Proc. of IEEE/RSJ

International Conference on Intelligent Robots and Systems,

pp.4551–4557 (2006)

(14) H. Liu, Z. Zhang, W. Song, Y. Mae, M. Minami, and A. Seiji:

“Evolutionary Recognition of Corridor and Turning using

Adaptive Model with 3D Structure”, Proc. of SICE-ICASE

International Joint Conference, pp.2840–2845 (2006)

(15) M. Rous, H. Lupschen, and K.-F. Kraiss: “Vision-based in-

door scene analysis for natural landmark detection”, Proc. of

IEEE International Conference on Robotics and Automation,

pp.4642–4647 (2005)

(16) J. J. Leonard and H. F. Durrant-Whyte: “Simultaneous map

building and localization for an autonomous mobilerobot”,

Proc. of IEEE/RSJ International Conference on Intelligent

Robots and Systems, pp.1442–1447 (1991)

(17) M. Montemerlo, S. Thrun, D. Koller, and B. Wegbreit: “Fast-

SLAM: A factored solution to the simultaneous localization

and mapping problem”, Proc of AAAI National Conference

on Artificial Intelligence, pp.593-598 (2002)

(18) S. Thrun: “Robotic mapping: A survey”, CMU-CS-02-111,

(2002)

(19) A. Yamashita, T. Harada, and T. Kaneko: “Three-

Dimensional Environment Modeling from Images Acquired

with an Omni-Directional Camera Mounted on a Mobile

Robot by Structure from Motion”, T. Japan Society of Me-

chanical Engineers. C, Vol.73, No.726, pp.512–519 (2007-2)

(in Japanese)

山下 淳・原田知明・金子 透:「全方位カメラ搭載移動ロボットによる Structure from Motion を用いた 3 次元環境モデリング」,日本機械学會論文集 C,Vol.73, No.726, pp.512–519 (2007-2)

(20) P. Elinas and J. J. Little: “σSLAM: stereo vision SLAM us-

ing the Rao-Blackwellised particle filter and a novel mixture

proposal distribution”, Proc. of IEEE International Confer-

ence on Robotics and Automation, pp.1564-1570, (2006)

(21) H. Koshimizu and M. Numada: “On A Fast Hough Transform

Method PLHT Based on Piece-Wise Linear Hough Function”,

IEICE, J72-D-II, No,1, pp.56–65 (1989-1) (in Japanese)

輿水大和・沼田宗敏:「区分的 Hough 直線による高速 Hough 変換法 PLHT について」,信学論,J72-D-II, 1, pp.56–65, (1989-1)

(22) I. Ulrich and I. Nourbakhsh: “Appearance-based obstacle de-

tection with monocular color vision”, Proc. of AAAI National

Conference on Artifical Intelligence, pp.403–408 (2000)

齊 藤 剛 史 (非会員) 1976年生。1999年豊橋技科大・工・情報卒業。2004 年豊橋技科大大学院博士後期課程修了。博士(工学)。同年鳥取大学工学部助手。現在同大学大学院工学研究科助教。画像処理,認識に関する研究に従事。2007 年 FITヤングリサーチャー賞受賞。IEEE,電子情報通信学会,計測自動制御学会各会員。

多 田 直 也 (非会員) 1984 年生。2007 年鳥取大学工学部電気電子工学科卒業。現在同大学院工学研究科電気電子工学専攻博士前期課程在学中。電子情報通信学会会員。

小 西 亮 介 (正員) 1946 年生。1970 年神戸大学工学研究科修士課程修了。同年鳥取大学工学部電子工学科助手。現在同校大学院工学研究科教授。工学博士。センサシステムの開発,画像手法を取り入れた音声認識および DSPの計測工学への応用技術に関する研究に従事。電子情報通信学会,計測自動制御学会会員。

1584 IEEJ Trans. EIS, Vol.129, No.8, 2009