3d modeling of outdoor scenes by integrating stop …yokoya.naist.jp/paper/datas/829/miru2005.pdfkey...

6
シンポジ (MIRU2005)2005 7 レンジファインダ による モデル 大学院大学 630–0192 8916–5 E-mail: †{toshih-a,kanbara,yokoya}@is.naist.jp あらまし 囲にかつオクルージョンによる くモデル するために,レーザレンジファイン わせた モデル 案する.まず, において し,それらを するこ モデルを する. に, データを かった するため,レーザレンジファンダを し, がらラインスキャン する.移 レーザレンジファインダ GPS(Global Positioning System) わせた ハイブリッドセンサにより する. した モデルに移 たレンジデータを位 せす るこ ,移 センサ運 し, する. キーワード モデル ,レーザレンジファインダ, ,移 3D Modeling of Outdoor Scenes by Integrating Stop-and-Go and Continuous Scanning of Rangefinder Toshihiro ASAI , Masayuki KANBARA , and Naokazu YOKOYA Nara Institute of Science and Technology Takayama 8916–5, Ikoma, Nara, 630–0192 Japan E-mail: †{toshih-a,kanbara,yokoya}@is.naist.jp Abstract This paper describes a 3D modeling method for wide outdoor environments by integrating stop-and-go and continuous scanning of laser rangefinder. First, range images of an outdoor scene are measured by stop-and-go scanning by using omnidirectional laser rangefinder, and the 3D surface model is generated. Next, to recover the parts that are not measured in the stop-and-go scanning mode due to occlusion, we measure the outdoor scene in the continuous scanning mode where the laser rangefinder line-scans the scene under movement is employed. In the continuous scanning mode, the position and orientation of the rangefinder is acquired by a hybrid sensor which consists of GPS (Global Positioning System) and INS (Inertial Navigation System). Finally, multiple range data acquired in two scanning modes are integrated by registering overlapped parts of range data. Key words 3D modeling, laser rangefinder, stop-and-go scanning, continuous scanning, outdoor scene 1. はじめに モデル ,シミュレーション,ナ ゲーショ ン, ォークスルー 待されてい る.しかし, よう において される デル ,モデリングソフト いて により される が多く, モデルを するに る.そ ため, から ,レーザレンジファインダ(以 ,レンジファインダ)によ モデル する んに われている [1] [2]コンピュータ ジョン において, からステレオ してモデルを が多く されている [2]- [6].これら ,カメ ラ以 いう がある されたモデル 題が されているため, を安 して モデル するこ ある. 囲かつ するこ レーザレンジファインダを いた モデル されている [7]- [12],レンジファイン ,以 に大 される.

Upload: others

Post on 23-Mar-2020

0 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: 3D Modeling of Outdoor Scenes by Integrating Stop …yokoya.naist.jp/paper/datas/829/miru2005.pdfKey words 3D modeling, laser rangefinder, stop-and-go scanning, continuous scanning,

「画像の認識・理解シンポジウム (MIRU2005)」 2005 年 7 月

レンジファインダの定地点計測と移動計測の統合による屋外環境の三次元モデル化

浅井 俊弘† 神原 誠之† 横矢 直和†

† 奈良先端科学技術大学院大学 〒 630–0192 奈良県生駒市高山町 8916–5E-mail: †{toshih-a,kanbara,yokoya}@is.naist.jp

あらまし 屋外環境を広範囲にかつオクルージョンによる欠損部分無くモデル化するために,レーザレンジファイン

ダの定地点計測と移動計測を組み合わせた三次元モデル化手法を提案する.まず,実環境の形状を定地点において全

方位計測し,それらを統合することで三次元形状モデルを生成する.次に,定地点計測でデータを取得できなかった

未計測部分を計測するため,レーザレンジファンダを計測車両に搭載し,走行しながらラインスキャン計測する.移

動計測中のレーザレンジファインダの位置・姿勢はGPS(Global Positioning System)と慣性航法装置を組み合わせた

ハイブリッドセンサにより取得する.定地点計測で生成した形状モデルに移動計測で得たレンジデータを位置合せす

ることで,移動計測中のセンサ運動を最適化し,定地点計測と移動計測を統合する.

キーワード 三次元モデル化,レーザレンジファインダ,定地点計測,移動計測,屋外環境

3D Modeling of Outdoor Scenes by Integrating

Stop-and-Go and Continuous Scanning of Rangefinder

Toshihiro ASAI†, Masayuki KANBARA†, and Naokazu YOKOYA†

† Nara Institute of Science and Technology Takayama 8916–5, Ikoma, Nara, 630–0192 JapanE-mail: †{toshih-a,kanbara,yokoya}@is.naist.jp

Abstract This paper describes a 3D modeling method for wide outdoor environments by integrating stop-and-go

and continuous scanning of laser rangefinder. First, range images of an outdoor scene are measured by stop-and-go

scanning by using omnidirectional laser rangefinder, and the 3D surface model is generated. Next, to recover the

parts that are not measured in the stop-and-go scanning mode due to occlusion, we measure the outdoor scene in

the continuous scanning mode where the laser rangefinder line-scans the scene under movement is employed. In

the continuous scanning mode, the position and orientation of the rangefinder is acquired by a hybrid sensor which

consists of GPS (Global Positioning System) and INS (Inertial Navigation System). Finally, multiple range data

acquired in two scanning modes are integrated by registering overlapped parts of range data.

Key words 3D modeling, laser rangefinder, stop-and-go scanning, continuous scanning, outdoor scene

1. は じ め に

屋外環境の三次元モデルは,シミュレーション,ナビゲーショ

ン,ウォークスルーなどの様々な分野への応用が期待されてい

る.しかし,現在そのような分野において利用される三次元モ

デルは,モデリングソフトなどを用いて人手により作成される

ことが多く,屋外環境のモデルを作成するには膨大な労力が必

要になる.そのため,静止画像や動画像からの三次元形状推定

や,レーザレンジファインダ(以下,レンジファインダ)によ

る計測等を利用し屋外環境の三次元モデル化を自動化する研究

が盛んに行われている [1] [2].

コンピュータビジョンの分野において,複数の静止画や動画

像からステレオ法や因子分解法などを利用してモデルを復元す

る手法が多く研究されている [2]- [6].これらの手法では,カメ

ラ以外の特別な機器を必要としないという利点がある反面,復

元されたモデルの精度や信頼性には課題が残されているため,

広範囲の屋外環境を安定して三次元モデル化することは現時点

では困難である.

一方,物体の三次元形状を広範囲かつ高精度に計測すること

が可能なレーザレンジファインダを用いた屋外環境モデルの自

動生成手法が注目されている [7]- [12].従来,レンジファイン

ダの計測手法は,以下の二つの方法に大別される.

Page 2: 3D Modeling of Outdoor Scenes by Integrating Stop …yokoya.naist.jp/paper/datas/829/miru2005.pdfKey words 3D modeling, laser rangefinder, stop-and-go scanning, continuous scanning,

レーザレンジファインダ

(Riegl, LMS-Z360)

RTK-GPS

(Nikon-Trimble, LogPakII)

INSセンサ

(Tokimec, TISS-5-40)

図 1 センサシステムの概要

• 定地点計測(Stop-and-go scanning)[7]- [9]

• 移動計測(Continuous scanning)[10]- [12]

定地点計測はレンジファインダを固定して環境を計測し,多地

点においてこれを繰り返す.対象とする環境のモデルを得る場

合,レンジデータ間で重複部分を持たせることで,計測時のレ

ンジファインダの位置・姿勢が分からなくても,マッチングによ

る位置合わせが可能であるが,広域な都市環境をオクルージョ

ンによる未計測部分を無くすには時間的コストが大きくなる.

一方,移動計測は車両や飛行機などの移動体にレンジファン

ダを搭載し移動しながら計測を行う手法である.広域な環境を

固定計測よりも少ない時間で計測することが可能であるが,計

測中のセンサの位置・姿勢情報が必要になり,生成されるモデル

の精度はレンジファインダの位置・姿勢の推定精度に依存する.

移動計測でレンジファインダの位置・姿勢を取得するために用

いられている主な手法として,GPS や慣性航法装置 (Inertial

Navigation System,以下,INSセンサ)等の位置・姿勢センサ

を利用する手法がある [10].この手法は容易にセンサの位置・

姿勢の取得が可能であるが,GPS は建造物などによる電波の

反射や遮蔽により精度が低下し,INSセンサは誤差が蓄積する

ため十分な精度を得ることは困難である.

また,Fruh [11], [12] らによって提案された,移動計測中に

ラインスキャンを行うレンジファインダを水平方向に計測し続

け,フレーム毎のスキャン結果をマッチングすることでレンジ

ファンダの位置・姿勢を推定する手法がある.小野ら [13] は,

そのスキャン結果の時間的連続性も考慮した時空間距離画像を

解析することで,フレーム毎の変化だけでなくデータ全体の傾

向からセンサの位置・姿勢を推定している.これらの手法は,

GPSように位置精度が環境の状況に依存することはないが,基

本的に前フレームとの差分から現在の位置・姿勢を求めるため,

誤差が蓄積する.また,樹木やガラスなどレーザで安定して計

測できない物体の影響や,センサを搭載した移動体の揺れ等に

より前フレームのスキャンラインと正しくマッチングできなく

なった場合,位置・姿勢の推定が失敗する可能性がある.

二種類の方法で取得したデータを統合する手法として,清水

ら [14]は,定地点計測により取得したデータを,航空機から移

動計測により取得した広範囲のレンジデータへと位置合せする

手法を提案している.航空機からのレンジデータは,建物の高

さと大まかな形を抽出するために用いられるが,解像度 2-3m

と低いため,定地点計測でのオクルージョンによる未計測部分

は高精度にモデル化されない.

そこで,本研究では屋外環境をモデル化する際,オクルージョ

ンによる欠損部分を減少させるために,レンジファインダの定

地点計測と移動計測の計測結果を統合する三次元モデル化手

法を提案する.提案手法では,まず対象となる屋外環境を定地

点計測で多地点においてデータの取得を行いモデル化する.多

地点での定地点計測で計測できなかった未計測部分は環境中に

点在するため,その部分を移動計測により計測することで労力

を少なくかつ,未計測部分を減少させる.移動計測時のレンジ

ファインダの位置・姿勢は RTK(Real Time Kinematic)-GPS

と INSセンサを組み合わせたハイブリッドセンサにより取得す

る.さらに移動計測により取得したレンジデータを定地点計測

で取得した形状モデルに位置合せすることで,定地点計測と移

動計測によるレンジデータの統合を行う.

以下,2 章ではセンサシステムについて述べ,3 章では固定

計測による三次元形状モデルの生成手法について述べる.4章

では,レンジファインダの位置・姿勢の推定手法について詳述

し,5 章で固定計測によるモデルとの統合実験について述べ,

最後に 6章で本稿をまとめる.

2. 計測システムの概要

図 1は計測システムの概要である.本センサシステムは,レン

ジファインダ (Riegl, LMS-Z360),RTK-GPS(Nikon-Trimble,

LogPakII)と INSセンサ (Tokimec, TISS-5-40)からなり,各

センサの位置関係は固定されている.この状態で,定地点計測

と移動計測の両方を行うことが可能である.本レンジファイン

ダは垂直ラインスキャンをしながらヘッドが回転する全方位レ

ンジファインダで,定地点計測時は全方位レンジファインダ,

移動計測時はラインスキャナとして用いる.本レンジファイン

ダの性能を表 1に示す.INSセンサは複数の加速度センサから

構成されており,位置と同時にセンサの姿勢も計測することが

可能である.RTK-GPSと INS センサは連動したハイブリッ

ドセンサとなっており,GPSの欠点である計測周期の低さと,

INSセンサの欠点である計測誤差の蓄積を互いに補うことで高

精度な計測を行うことが可能である [15].RTK-GPSで取得し

た位置情報から INSセンサの蓄積誤差を補正するため,本ハイ

ブリッドセンサは長時間使い続けても計測精度を一定に保つこ

とができる.ハイブリッドセンサの性能を表 2に示す.図 1に

示すように,INSセンサと RTK-GPSのアンテナは近づけて設

置し,INS センサ座標系の原点と RTK-GPS の計測点は同じ

と見なす.また,INSセンサ座標系で位置が既知のマーカをレ

Page 3: 3D Modeling of Outdoor Scenes by Integrating Stop …yokoya.naist.jp/paper/datas/829/miru2005.pdfKey words 3D modeling, laser rangefinder, stop-and-go scanning, continuous scanning,

表 1 LMS-Z360 の性能

測定角範囲水平方向: 360 度

垂直方向: 40∼-50 度

測定距離範囲 1∼200m

測定精度 ±12mm

最小角度ステップ幅 0.01 度

角度読み取り分解能水平方向: 0.0025 度

垂直方向: 0.002 度

1 ラインの取得レート 20Hz

表 2 ハイブリッドセンサの性能

計測レート:50Hz(a) 位置精度

緯度 ±3.3cm

経度 ±3.3cm

高度 ±4.0cm

(b) 姿勢精度

方位角 ±2◦

ロール角 ±0.5◦

ピッチ角 ±0.5◦

(b) レーザの反射輝度画像(a) マーカの配置

マーカ

図 2 レンジファインダによるマーカの計測

ンジファインダから計測できる位置に配置する.そのマーカを

レンジファインダで計測することでレンジファインダ座標系と

INSセンサ座標系を統合する.図 2に示すように,マーカには

レーザの反射率の高い素材を用いた.検出されたマーカのレン

ジファインダ座標系での座標から座標系間の変換行列を求める.

3. 定地点計測による形状モデルの生成

本章では,多地点で定地点計測により取得した全方位レンジ

データの位置合わせは手法 [16] を利用する.まず,RTK-GPS

と INSセンサによる位置・姿勢情報を基に GSP座標系へと統

合する.この位置・姿勢情報を最適化の初期値とする.位置合

わせの最適化には一般的に ICP アルゴリズムがよく用いられ

ている [17].従来の ICPアルゴリズムではレンジデータ間で対

応する点を探索し,その対応点間の距離を誤差と定義し,誤差

を最小化するように変換行列を求める.点と点の対応では,計

測地点の違いから,同じ部分を計測した場合でも計測点の密度

が大きく異なる場合,1つの点に複数の点が対応付けられる場

合がある.また,必ずしも異なるレンジデータ間で同一の三次

元点が計測されておらず,局所解に陥りやすくなる [18].本研

究で対象としている屋外環境は主に都市環境であり,道路や壁

などの平面部分が多く存在するため,レンジデータから平面を

検出し,平面部分のみを利用したレンジデータの位置合せを行

う.そして,平面同士の対応へと拡張した ICP アルゴリズム

により,レンジデータの同時位置合せによる全体最適化を行う.

平面部分のみを利用することで,位置合せの計算量を削減し,

樹木などのレンジファインダでは形状が安定して計測すること

が困難な物体の影響を排除する.レンジデータ間で対応する平

面を探索し,対応する平面同士の法線の向きを一致させて重ね

合せることにより,物体の形状を考慮した位置合せを行う.

3. 1 複数レンジデータの同時位置合わせ

多地点レンジデータの位置合せは,各レンジデータから平面

を検出し,レンジデータ間で対応する平面を探索する.そして,

その平面を重ね合せることにより行う.そのために,まずレン

ジデータから平面の検出とその平面の法線ベクトルを求める.

レンジデータのある計測点の法線情報はその周辺の計測点から

推定する二次的な情報になるため,木のような複雑な形状をし

た物体は同じ部分でも計測した方向や解像度によって推定され

る法線が大きく異なる可能性が高い.そのため,計測した方向

や解像度が異なっても,推定される法線が大きく変化しない道

路や壁などの平面部分のデータのみを用いる.ある平面に対応

する平面を他のレンジデータから探索し,対応する平面の法線

ベクトルの成す角,及び平面部分の計測点からその平面に対応

する平面への距離が最小になるように回転・平行移動成分を推

定する.それぞれのレンジデータの位置・姿勢は,RTK-GPS

とジャイロセンサによって取得するが,測定誤差を含んでいる

ため測定値は初期値として利用する.以下に処理手順を示す.

( 1) レンジデータから平面部分を検出.

( 2) レンジデータを GPS座標系へ座標変換.

( 3) 平面の対応関係を全レンジデータ間で探索.

( 4) 対応する平面の法線と平面領域の計測点からレンジ

データの回転・平行移動成分を推定し変換行列を更新.

( 5) 変換行列の推定結果が収束していれば終了.収束して

いなければ (2)に戻る.

(2)の座標変換で,最初は RTK-GPSとジャイロセンサで計測

した位置・姿勢を用い,以後は (4)で推定された変換行列を用

いる.以下,(1)平面検出,(3)対応面の探索,(4)変換行列の

推定のそれぞれの処理について詳述する.

3. 1. 1 レンジデータからの平面検出

平面検出はレンジデータに局所的平面を当てはめることによ

り行う.四分木を用いて距離画像を分割し,窓内の点群データ

から最適な平面のパラメータをくりこみ法 [19] を用いて推定

する.窓内全ての点と推定された平面との距離を求め,全ての

距離が閾値以下なら窓内の点群は平面であると判断し,推定さ

れた平面の法線をその点群での法線とする.平面と判断され

なかった場合は窓を四分割して処理を繰り返す.窓の大きさが

3×3でも平面と判断されなかった部分の計測点は位置合せに利

用しない.

3. 1. 2 対応面の探索

ある平面に対応する平面をその法線方向に別のレンジデー

タから探索する.対応面の定義を以下に述べる.レンジデー

タ n (n = 1, · · · , N) の平面を Pni とし,その Pni 上の計測

点を Qnij ,Pni の法線ベクトルを Nni とする.Pni の対応面

は,Pni 上の計測点 Qnij を通る法線ベクトル Nni と他のレン

ジデータの平面との交点 Qx が存在する平面と定義する.ある

点 Qnij からその平面の法線方向に複数の対応面が見つかった

Page 4: 3D Modeling of Outdoor Scenes by Integrating Stop …yokoya.naist.jp/paper/datas/829/miru2005.pdfKey words 3D modeling, laser rangefinder, stop-and-go scanning, continuous scanning,

Pkl1

Qnij

Nkl1

Nni

(a) 法線ベクトルの内積による判定

Qx2

Qx1

Pkl2

Nkl2Pni

Qx1

Qx2

Qnij

Pkl1

Pkl2

(b) 交点の存在による判定

Nkl1

Nkl2

図 3 対応面の探索

Fig. 3 Selection of corresponding plane.

場合,見つかった平面の法線ベクトルと Nni の角度が閾値以内

でかつ,Qnij と Qx の距離が最小となる平面を選択する.図 3

の場合 (a),(b)両方とも距離は Pkb が近いが,(a)では法線ベ

クトルの角度差が閾値を越えているため,(b)では交点が平面

部分に存在しないため,Pka が Qnij に対応する平面として選

択される.また,Pni 上の計測点 Qnij で探索を行い対応面が

複数見つかった場合は,全てを対応面とする.

3. 1. 3 レンジデータの変換行列の推定

各レンジデータの変換行列を,求めた対応面の法線と平面領

域の計測点から推定する.回転成分を平面の法線ベクトルの内

積から,平行移動成分を平面領域の計測点とその対応面の距離

から推定する.

step 1. 回転成分 Rn は,対応面の法線ベクトルの内積の和

を信頼度 CR と定義し,CR を最大化することで求める.3.1.2

節で述べた手法により探索した平面 Pu とその対応面 HPu の

ペア集合 (Pu, HPu) (u = 1, · · · , U)から CR は,

CR =

U∑

u=1

(RPuNPu) · (RHPuNHP u) → max, (1)

と定義する.ここで,RPu と RHPu はそれぞれ Pu と HPu が

存在するレンジデータの回転成分を, NPu とNHP u はそれぞれ

Pu と HPu の法線を示す.

step 2. 平行移動成分 Tn は,平面領域の計測点とその点か

ら探索された平面の距離の和を誤差 ET と定義し,ET を最小

化することで求める.ET は,

ET =

U∑

u=1

distance( QPu(R′Pu

, TPu),

HPu(R′HP u

, THPu)) → min, (2)

で定義され,R′Puと R′

HPuは,それぞれ step1で求めた Pu と

HPu が存在するレンジデータの回転成分,Q(R,T )とH(R,T )

は,回転成分 Rと平行移動成分 Tによって座標変換された点

Qと平面 H,TPu と THPu はそれぞれ Pu と HPu が存在する

レンジデータの平行移動成分を示す.step2 では回転成分を固

定し平行移動成分のみを最適化する.

図 4 定地点計測によるモデル (テクスチャ付き) の未計測部分

step2の結果,回転・平行移動成分の推定結果が収束していれば

位置合せ処理を終了し,収束していなければ推定された回転・

平行移動成分をレンジデータに適用する.そして,再び対応面

を探索し,変換行列の推定を行う.位置・姿勢の最適化処理で

は,多次元滑降シンプレックス法を [20]を用いる.

4. レンジファインダの定地点計測と移動計測の統合

本章では,レンジファダの定地点計測と移動計測で得たレン

ジデータの統合手法について述べる.定地点計測による三次元

形状モデルは図 4に示すように,小さな領域の未計測部分 (白

い部分)が存在する.この未計測部分を移動計測により計測す

る.3章で述べた手法により,定地点計測で得られたデータか

ら三次元モデルを予め生成しておく.移動計測中のセンサの位

置・姿勢は,ハイブリッドセンサにより取得する.移動計測に

より取得したデータを定地点計測で得られた三次元モデルに位

置合せすることで,移動中のセンサの位置・姿勢を最適化する.

4. 1 レンジファインダの位置・姿勢の最適化

移動計測中のレンジファインダの位置・姿勢は RTK-GPSと

INSセンサを組み合わせたハイブリッドセンサにより取得する.

しかし,GPS の位置精度は電波状況に依存するため,常に同

じ精度で取得することは困難である.そのためセンサにより得

られた位置・姿勢情報は初期値として利用し,定地点計測によ

り作成したモデルに移動計測によるデータを位置合せすること

で移動中のレンジファインダの位置・姿勢を最適化する.

3章で述べたように,定地点計測で取得したデータを位置合

わせする際,レンジファインダで安定して形状を計測できない

樹木などの影響を排除するためにレンジデータから平面を検出

し,平面部分のみを用いて位置合わせを行った.移動計測で取

得したデータの位置合せ処理も同様に移動計測で取得したデー

タからスキャンライン毎に直線の検出を行い,直線部分と定地

点計測で取得したモデルの平面部分のみを位置合せ処理に用い

る.処理手順を以下に示す.

( 1) スキャンラインの連続した計測点に直線当てはめを行

うことで直線を検出し,直線部分以外のデータは除外する.

Page 5: 3D Modeling of Outdoor Scenes by Integrating Stop …yokoya.naist.jp/paper/datas/829/miru2005.pdfKey words 3D modeling, laser rangefinder, stop-and-go scanning, continuous scanning,

( 2) 図 5に示すように,移動計測で得た各計測点に対応す

る点を統合済みのモデルから探索する.計測点Pi(i = 1, · · · , I)

の対応点は Pi のレーザの照射方向の直線とモデルの交点 XPi

とする.

( 3) 対応点間の距離の和を最小化するように計測点 Pi の

統合座標系への変換行列MPi を推定する.誤差関数 Eを以下

の式で定義する.

E =

I∑

i=1

∣∣(MPiPi)XPi

∣∣ → min.

( 4) 解が収束するまで (2),(3)を繰り返す.

断面図

対応点Xpi

計測点Pi

センサ位置

センサ位置 レーザ

未計測部分

統合済みモデル

図 5 対応点の探索 (ある 1 ラインを見た場合)

5. レンジファインダの運動推定とデータ統合実験

提案手法を用いてレンジファンダの定地点計測と移動計測で

取得したデータの統合実験を行った.定地点での全方位計測の

統合により生成された三次元モデルを図 7に示す.このモデル

の欠損部分を移動計測によって計測する.定地点計測と移動計

測の統合について今回は予備実験として,未計測部分は人手に

より決定し,一定方向を向けたラインスキャナの移動計測で取

得したデータを定地点計測にて生成されたモデルに位置合せす

る.以下,実験の詳細について述べる.定地点で全方位計測に

より取得した 3地点分のデータから 3章で述べた手法により形

状モデルを生成した.移動計測では,レンジファインダの向き

を固定してラインスキャナとして使用し,約 70mの経路を 1000

ラインで取得した.移動計測にて取得したレンジデータを図 6

に示す.センサ座標系間の変換行列,レンジファインダと INS

センサの同期は予め行われているものを利用した.実験に利用

した定地点計測による形状モデルを図 8(a) に,移動計測によ

るデータを図 8(b) に示す.レンジファンダの運動の最適化処

理では,1ラインは同じセンサ位置・姿勢で取得されたものと

図 6 移動計測で取得したレンジデータ

し,ライン間の位置・姿勢の変化量は閾値以下という制約を付

けて最適化を行った.レンジデータの統合後の結果を図 9に示

す.ハイブリッドセンサのみの位置・姿勢情報から生成したモ

デルには局所的に歪みが見られたが,統合の結果,モデルと移

動計測によるデータの位置ずれや,移動計測によるデータの歪

みが正しく補正されたのを確認した.

6. ま と め

本稿では,レンジファインダによる定地点での全方位計測と

移動中のラインスキャンを組み合わせることで,オクルージョ

ンによる未計測部分を削減する屋外環境の三次元モデル化手法

を提案した.定地点計測と移動計測の統合実験により,定地点

計測によるモデルに移動計測によるレンジデータを位置合せす

ることで移動中のレンジファインダの位置・姿勢が最適化され,

定地点計測と移動計測で取得したレンジデータが正しく統合さ

れたことを確認した.今後は,生成済みの三次元モデルを計測

システムに保持しておくことで移動計測時に未計測部分を自動

的に判定し,レンジファインダの計測方向を自動制御する手法

を検討する予定である.

文 献[1] S. F. El-Hakim, C. Brenner, and G. Roth: “A Multi-sensor

Approach to Creating Accurate Virtual Environments,”

Jour. of Photogrammetry & Remote Sensing, Vol. 53,

pp. 379–391, 1998.

[2] T. Sato, M. Kanbara, N. Yokoya, and H. Takemura: “Dense

3-D Reconstruction of an Outdoor Scene by Hundreds-

baseline Stereo Using a Hand-held Video Camera,” Interna-

tional Jour. of Computer Vision, Vol. 47, No. 1-3, pp. 119–

129, 2002.

[3] 納富, 小澤, 全: “移動体観測による都市モデル構築”, 電子情報通信学会論文誌, Vol. J81-D-II, No. 5,pp. 872–879, 1998.

[4] C. Tomasi and T. Kanade: “Shape and Motion from Image

Streams under Orthography A Factorization Method,” In-

ternational Jour. of Computer Vision, Vol. 9, No. 2, pp. 137–

154, 1992.

[5] M. Pollefeys, R. Koch, M. Vergauwen, A. A. Deknuydt, and

L. J. V. Gool: “Three-demintional Scene Reconstruction

from Images,” Proc. SPIE, Vol. 3958, pp. 215–226, 2000.

[6] M. Okutomi and T. Kanade: “A Multiple-baseline Stereo,”

IEEE Trans. on Pattern Analysi and Machine Intelligence,

Vol. 15, No. 4, pp. 353–363, 1993.

[7] H. Zhao and R. Shibasaki: “Reconstruction of Textured

Urban 3D Model by Fusing Ground-Based Laser Range

and CCD Images,” IEICE Trans. Inf. & Syst., Vol. E-83-

D, No. 7, pp. 1429–1440, 2000.

[8] P. K. Allen, A. Troccoli, B. Smith, S. Murray, I. Stamos,

and M. Leordeanu: “New Methods for Digital Modeling of

Historic Sites,” IEEE Computer Graphics and Applications,

Page 6: 3D Modeling of Outdoor Scenes by Integrating Stop …yokoya.naist.jp/paper/datas/829/miru2005.pdfKey words 3D modeling, laser rangefinder, stop-and-go scanning, continuous scanning,

図 7 定地点計測にて生成されたテクスチャ付き三次元モデル

(a) 定地点計測で生成された形状モデル (3 地点分のデータ) (b) 移動計測で取得したデータ図 8 取得データ

図 9 定地点計測 (灰) と移動計測 (白) の統合結果

Vol. 23, pp. 32–41, 2003.

[9] Y. Sun, J. K. Paik, A. Koschan, and M. A. Abidi: “3D

Reconstruction of Indoor and Outdoor Scenes Using a Mo-

bile Range Scanner,” Proc. International Conf. on Pattern

Recognition, Vol. 3, pp. 653–656, 2002.

[10] H. Zhao and R. Shibasaki: “Reconstructing a Textured

CAD Model of an Urban Environment Using Vehicle-Borne

Laser Range Scanners and Line Cameras,” Machine Vision

and Applications, Vol. 14, No. 1, pp. 35-41, 2003.

[11] C. Fruh and A. Zakhor: “Fast 3D Model Generation in Ur-

ban Environments,” IEEE Conf.on Multisensor Fution and

Integration for Intelligent System, pp. 165–170, 2001.

[12] C. Fruh and A. Zakhor: “An Automated Method for Large-

Scale, Ground-Based City Model Acquisition,” Interna-

tional Jour. of Computer Vision, Vol. 60, pp. 5–24, 2004.

[13] 小野,川崎,影沢,池内: “時空間距離画像を利用した自己位置推定による効率的な広域空間モデルの構築”, 画像の認識・理解シンポジウム 2004 論文集 I, pp. 201–206, 2004.

[14] 清水,大野,相澤: “航空高度データとレンジデータの統合による 3 次元街モデルの構築”, 映像情報メディア学会誌, Vol. 58,

No. 6, pp. 827–834, 2004.

[15] 神原, 横矢: “RTK-GPS と慣性航法装置を併用したハイブリッドセンサによる屋外型拡張現実感”, 信学技報 PRMU, Vol. 104,

No. 572, pp. 37–42, 2005.

[16] T. Asai, M. Kanbara, and N. Yokoya: “3D Modeling of

Wide Area Outdoor Environments by Integrating Omni-

directional Range and Color Images,” Proc. IEEE and

ACM International Symp. on Mixed and Augmented Re-

ality, pp. 264–265, 2004.

[17] P. J. Besl and N. D. McKay: “A Method for Registration of

3-D Shapes,” IEEE Trans. on Pattern Analysis and Machine

Intelligence, Vol. 14 No. 2, pp. 239–256, 1992.

[18] K. Pulli: “Multiview Registration for Large Data Sets,”

Proc. International Conf. on 3D Digital Imaging and Mod-

elling, pp. 160–168, 1999.

[19] 金谷: “コンピュータビジョンのためのくりこみ法”, 情報処理学会論文誌, Vol. 35, No. 2, pp. 201–209, 1994.

[20] W. H. Press, B. P. Flannery, S. A. Teukolsky, and W. T.

Vetterling: Numerical Recipes in C, Cambridg University

Press 1988.