student 9.ppt [互換モード]ihaya/bc/9/9.pdf1 ブレイン・コンピューティング ⑨...

7
1 ブレイン・コンピューティング 研究室:TA310 [email protected] Neo-cognitron, Fukushima, 1980 SOM, Kohonen, 1981 BCS (Boundary Contour System), Grossberg and Mingolla, 1985 FCS (Feature Contour System), Grossberg and Mingolla, 1985 LVQ, Kohonen, 1986 ART1 (Adaptive Resonance Theory 1), Carpenter and Grossberg, 1987 Fuzzy ART, Carpenter, Grossberg and Rosen, 1991 ARTMAP, Carpenter, Grossberg and Reynolds, 1991 Fuzzy ARTMAP, Carpenter and Grossberg, 1991 Gaussian ARTMAP, Williamson and Grossberg, 1998 V1 – V2 Model Neumann and Sepp, 1999 Visual Cortex Model, Grossberg, 1999 TAM (Topographic Attentive Mapping), Williamson and Grossberg, 1999 神経回路モデル 構造モジュール フィードバック信号 Visual Cortexモデル ・網膜LGNV1へのフィードフォワード入力と方位選択性受容野の確立 V1からLGNへの選択的注意の機構を実現するtopdownフィードバック信号 (Murphy and Sillito, 1987, 1996; Weber, 1989) V2層からV1層への折り返しフィードバック信号 (Pandya and Yeterian, 1985; Cauller and Connors, 1994) V2層からV1層への潜在的フォードバック信号 (Wittmer, 1997; Hupe, 1997) 緑色の細胞と接合 知覚グルーピングと関連する興奮性メカニズム 赤色 抑制性メカニズム 青色 topdownの選択的注意のメカニズム 構造モジュール フィードバック信号 視覚モデル ・網膜LGNV1へのフィードフォワード入力と方位選択性受容野の確立 (Ferster and Lindstrom, 1985; Grieve and Sillito, 1991) /層水平結合性細胞間での興奮・抑制性信号による知覚グループの着手 (Hirsch and Gilbert, 1991; McGuire, 1991) V1での折り返しフィードバックによる知覚グルーピングの選択 (Mountcastle, 1957; Hubel and Wiesel, 1962, 1977) ・知覚グルーピングの背景からの分離 (Kisvarday, 1995; van Essen and Maunsell, 1983; Redies, 1986)

Upload: others

Post on 21-Feb-2020

0 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: student 9.ppt [互換モード]ihaya/bc/9/9.pdf1 ブレイン・コンピューティング ⑨ 林勲 研究室:TA310 ihaya@cbii.kutc.kansai-u.ac.jp Neo-cognitron, Fukushima, 1980

1

ブレイン・コンピューティング

林 勲研究室:TA310

[email protected]

Neo-cognitron, Fukushima, 1980SOM, Kohonen, 1981BCS (Boundary Contour System), Grossberg and Mingolla, 1985FCS (Feature Contour System), Grossberg and Mingolla, 1985LVQ, Kohonen, 1986ART1 (Adaptive Resonance Theory 1), Carpenter and Grossberg, 1987Fuzzy ART, Carpenter, Grossberg and Rosen, 1991ARTMAP, Carpenter, Grossberg and Reynolds, 1991Fuzzy ARTMAP, Carpenter and Grossberg, 1991Gaussian ARTMAP, Williamson and Grossberg, 1998V1 – V2 Model Neumann and Sepp, 1999Visual Cortex Model, Grossberg, 1999TAM (Topographic Attentive Mapping), Williamson and Grossberg, 1999

神経回路モデル

構造モジュール

フィードバック信号

Visual Cortexモデル

・網膜→LGN→V1へのフィードフォワード入力と方位選択性受容野の確立・V1からLGNへの選択的注意の機構を実現するtop‐downフィードバック信号

(Murphy and Sillito, 1987, 1996; Weber, 1989)・V2のⅥ層からV1のⅣ層への折り返しフィードバック信号

(Pandya and Yeterian, 1985; Cauller and Connors, 1994)・V2のⅥ層からV1のⅣ層への潜在的フォードバック信号

(Wittmer, 1997; Hupe, 1997)

緑色の細胞と接合知覚グルーピングと関連する興奮性メカニズム

赤色抑制性メカニズム

青色top‐downの選択的注意のメカニズム

構造モジュール

フィードバック信号

視覚モデル

・網膜→LGN→V1へのフィードフォワード入力と方位選択性受容野の確立(Ferster and Lindstrom, 1985;  Grieve and Sillito, 1991)

・Ⅱ/Ⅲ層水平結合性細胞間での興奮・抑制性信号による知覚グループの着手(Hirsch and Gilbert, 1991; McGuire, 1991)

・V1での折り返しフィードバックによる知覚グルーピングの選択(Mountcastle, 1957; Hubel and Wiesel, 1962, 1977)

・知覚グルーピングの背景からの分離(Kisvarday, 1995; van Essen and Maunsell, 1983; Redies, 1986)

Page 2: student 9.ppt [互換モード]ihaya/bc/9/9.pdf1 ブレイン・コンピューティング ⑨ 林勲 研究室:TA310 ihaya@cbii.kutc.kansai-u.ac.jp Neo-cognitron, Fukushima, 1980

2

l(1)

h(1)

l(2)

h(2)

入力データ

l(2) h(2)

フィルター後

l(2) h(2)

錯視の実現 視覚系ニューラルネットワーク

.....

.....

.....網膜

(ガングリオン細胞)

受容野

視覚前野

.....

基盤層

カテゴリー層

クラス層

LGN受容野構造部 知識獲得部

第一視覚野(特徴マップ層)

初期視覚処理

Lateral Geniculate Nucleus (LGN)外側膝状体

Primary Visual Cortex

(V1)視覚野

Temporal Lobe側頭葉

Frontal Lobe前頭葉

色,きめ

空間,動き

腹側経路 Ventral Visual Pathway

背側経路 Dorsal Visual Pathway

Retina網膜

Parietal Lobe頭頂葉

V2V3

V4MT

IT

KCN, Hannan University

-+

+-

+ - +- -

外界視野

受容野1

受容野2

受容野3受容野4

受容野視覚細胞は外界の視野全体を包含するのではなく,一定の領域のみに反応する.

網膜レベルでの受容野よりも第1視覚野の受容野の方が大きい.

受容野には,

・ オン中心-オフ周辺型受容野・ オフ中心-オン周辺型受容野・ 方位選択型受容野

方位選択型受容野のモデルとして,ガボール関数がある.

Page 3: student 9.ppt [互換モード]ihaya/bc/9/9.pdf1 ブレイン・コンピューティング ⑨ 林勲 研究室:TA310 ihaya@cbii.kutc.kansai-u.ac.jp Neo-cognitron, Fukushima, 1980

3

受容野 細胞での反応

On-center OFF-surround型細胞

OFF-center ON-surround型細胞

受容野

-10 -5 0 5 10

0

0.01

0.02

0.03

0.04

外界視野

受容野1

受容野2

受容野3受容野4

方位選択性

ガボール関数網膜でのガングリオン細胞 ガボール関数(受容野構造部)・ ガボール関数は受容野モデルの一つとして用いられている.

D. Gabor, “Theory of communication,” J.IEE London, Vol.93, pp.429-457 (1946)

・ ガウス関数と正弦・余弦関数からなり,任意の周波数成分を抽出するフィルタリングが可能である.

・ ガボール関数により画像対象のエッジの16成分を抽出する.・ 受容野のONセンターOFFサラウンド反応を実現できる.

)sin 2cos 2( ),(2

2

2

2 )()(21

yfxfSinKeyxG yx

yx

y

y

x

x

K : 振幅σx : x 軸の標準偏差σy : y 軸の標準偏差( μx , μy ): ガボール関数の中心座標f x : x 軸の周波数f y : y 軸の周波数θ : ガボール関数の方向角度φ : 位相

-10 -5 0 5 10

0

0.01

0.02

0.03

0.04

-10 -5 0 5 10

-0.02

-0.01

0

0.01

0.02

正弦(sin)型ガボール関数

余弦(cos)型ガボール関数

2次元と3次元のガボール関数

ガボール関数の方向角度

-10

-5

0

5

10 -10

-5

0

5

10

-0.005

0

0.005

-10

-5

0

5

10

-10

-5

0

5

10 -10

-5

0

5

10

-0.005

0

0.005

-10

-5

0

5

10

-10

-5

0

5

10 -10

-5

0

5

10

-0.005

0

0.005

-10

-5

0

5

10

-10

-5

0

5

10 -10

-5

0

5

10

-0.005

0

0.005

-10

-5

0

5

10

0度 22.5度 45度 67.5度

-10-5

0

5

10 -10

-5

0

5

10

-0.005

0

0.005

-10-5

0

5

10

-10-5

0

5

10 -10

-5

0

5

10

-0.005

0

0.005

-10-5

0

5

10

90度 112.5度 135度 157.5度

-10

-5

0

5

10 -10

-5

0

5

10

-0.005

0

0.005

-10

-5

0

5

10

-10

-5

0

5

10 -10

-5

0

5

10

-0.005

0

0.005

-10

-5

0

5

10

-10

-5

0

5

10 -10

-5

0

5

10

-0.005

0

0.005

-10

-5

0

5

10

180度 202.5度 225度 247.5度

-10

-5

0

5

10 -10

-5

0

5

10

-0.005

0

0.005

-10

-5

0

5

10

-10

-5

0

5

10 -10

-5

0

5

10

-0.005

0

0.005

-10

-5

0

5

10

-10-5

0

5

10 -10

-5

0

5

10

-0.005

0

0.005

-10-5

0

5

10

-10-5

0

5

10 -10

-5

0

5

10

-0.005

0

0.005

-10-5

0

5

10

-10

-5

0

5

10 -10

-5

0

5

10

-0.005

0

0.005

-10

-5

0

5

10

-10

-5

0

5

10 -10

-5

0

5

10

-0.005

0

0.005

-10

-5

0

5

10

-10

-5

0

5

10 -10

-5

0

5

10

-0.005

0

0.005

-10

-5

0

5

10

270度 292.5度 315度 337.5度

Page 4: student 9.ppt [互換モード]ihaya/bc/9/9.pdf1 ブレイン・コンピューティング ⑨ 林勲 研究室:TA310 ihaya@cbii.kutc.kansai-u.ac.jp Neo-cognitron, Fukushima, 1980

4

-10

-5

0

5

10 -10

-5

0

5

10

-0.005

0

0.005

-10

-5

0

5

10

-10

-5

0

5

10 -10

-5

0

5

10

-0.005

0

0.005

-10

-5

0

5

10

-10

-5

0

5

10 -10

-5

0

5

10

-0.005

0

0.005

-10

-5

0

5

10

-10

-5

0

5

10 -10

-5

0

5

10

-0.005

0

0.005

-10

-5

0

5

10

-10

-5

0

5

10 -10

-5

0

5

10

-0.005

0

0.005

-10

-5

0

5

10

-10

-5

0

5

10 -10

-5

0

5

10

-0.005

0

0.005

-10

-5

0

5

10

-10-5

0

5

10 -10

-5

0

5

10

-0.005

0

0.005

-10-5

0

5

10

-10

-5

0

5

10 -10

-5

0

5

10

-0.005

0

0.005

-10

-5

0

5

10

-10

-5

0

5

10 -10

-5

0

5

10

-0.005

0

0.005

-10

-5

0

5

10

-10-5

0

5

10 -10

-5

0

5

10

-0.005

0

0.005

-10-5

0

5

10

-10-5

0

5

10 -10

-5

0

5

10

-0.005

0

0.005

-10-5

0

5

10

-10-5

0

5

10 -10

-5

0

5

10

-0.005

0

0.005

-10-5

0

5

10

-10

-5

0

5

10 -10

-5

0

5

10

-0.005

0

0.005

-10

-5

0

5

10

-10

-5

0

5

10 -10

-5

0

5

10

-0.005

0

0.005

-10

-5

0

5

10

-10

-5

0

5

10 -10

-5

0

5

10

-0.005

0

0.005

-10

-5

0

5

10

-10

-5

0

5

10 -10

-5

0

5

10

-0.005

0

0.005

-10

-5

0

5

10

3次元ガボール関数

0deg. 22.5deg. 45deg. 67.5deg. 90deg. 112.5deg. 135deg. 157.5deg.

180deg. 202.5deg. 225deg. 247.5deg. 270deg. 292.5deg. 315deg. 337.5deg.

ガボールフィルタ (16方位)

1 2 3 4 16…5 15

TAMネットワークの入力層

入力画像

ヒストグラム化

受容野の構成

ガボールフィルタリング

1

16

ガボール関数のサイズ

方向 属性マップ

…0 ・・・ 255

0deg. 22.5deg 45deg. … 337.5deg.

0 ・・・ 255 0 ・・・ 255 0 ・・・ 255

0deg. 22.5deg. 45deg. 67.5deg. 90deg. 112.5deg. 135deg. 157.5deg.

180deg. 202.5deg. 225deg. 247.5deg. 270deg. 292.5deg. 315deg. 337.5deg.

ガボールフィルタ (16方位)

1 2 3 4 16…5 15

TAMネットワークの入力層

入力画像

ヒストグラム化

ガボールフィルタリング

1

16

ガボール関数のサイズ

方向 属性マップ

…0 ・・・ 255

0deg. 22.5deg 45deg. … 337.5deg.

0 ・・・ 255 0 ・・・ 255 0 ・・・ 255

-10

-5

0

5

10 -10

-5

0

5

10

-0.005

0

0.005

-10

-5

0

5

10

受容野の構成 ガボールフィルタリング

1

16

ガボールフィルタリングを用いて,原画像を方位成分画像へ変換する.

ガボールフィルタリングは畳み込み計算により実現する.

),( ),(),(1 1

qpIqypxGyxOQ

q

P

pi

)sin 2cos 2( Cos ),(2

2

2

2 )()(21

yfxfKeyxG yx

yx

y

y

x

x

畳み込み計算式

I ( p , q ) : 入力画像Oi ( x , y ) : 出力画像G (x – p , y - q) : ガボール関数P , Q : 原画像の高さと幅( p , q ) : 原画像における座標

Page 5: student 9.ppt [互換モード]ihaya/bc/9/9.pdf1 ブレイン・コンピューティング ⑨ 林勲 研究室:TA310 ihaya@cbii.kutc.kansai-u.ac.jp Neo-cognitron, Fukushima, 1980

5

…0 ・・・ 255

0deg. 22.5deg 45deg. … 337.5deg.

0 ・・・ 255 0 ・・・ 255 0 ・・・ 255

),(

),(

1 1

),(|,

Q

y

P

xi

ihyxOyx

ih

yxO

yxOf i

TAMネットワークの入力層

(属性マップ)

濃度化

属性マップの作成

学習用データ

評価用データ回転文字と斜体文字に対する認識

回転文字 斜体文字

回転文字の認識

回転文字に対する認識

学習用データ

評価用データ

第1層目 方位選択成分

評価データ

方位(16方位)

受容野構造

第2層目 方位選択成分

Page 6: student 9.ppt [互換モード]ihaya/bc/9/9.pdf1 ブレイン・コンピューティング ⑨ 林勲 研究室:TA310 ihaya@cbii.kutc.kansai-u.ac.jp Neo-cognitron, Fukushima, 1980

6

100.0 70.0 10.0 90.0 45.0 50.0 25.0 100.0 100.0 100.0 20.0 85.0 60.0 60.0 40.0 100.0

100.0 0.0 25.0 100.0 70.0 55.0 30.0 40.0100.0 0.0 40.0 100.0 80.0 70.0 45.0 70.0

100.0 20.0 60.0 0.0 100.0 100.0 100.0 95.0100.0 10.0 55.0 5.0 100.0 100.0 100.0 100.0

30.0 10.0 100.0 60.0 100.0 100.0 100.0 100.025.0 5.0 100.0 55.0 100.0 100.0 100.0 100.0

認識率

方位ベクトル型受容野構造(OV)

従来型TAM(I)100.0% (I)100.0% (J)100.0% (J)66.7% (L)66.7% (L)100.0% (Z)100.0% (Z)100.0%

(G) 0.0% (O)100.0% (Q)66.7% (M)66.7% (N)0.0% (B)100.0% (P)33.3% (R)100.0%

(C)100.0% (C)0.0% (S)100.0% (S)0.0% (V)100.0% (V)0.0% (X)100.0% (X)66.7%

30回の実験の平均値

30%のピクセルを削減した文字の認識

コホネン(T.Kohonen)が提案した入力パターン群を自律的に分類する教師なし学習ニューラルネットワークである.

ネットワーク構造 高次元データを2次元平面上へ非線形写像する.

入力されたデータに対して, 2次元配列上でそのデータの特徴と同じ

シナプス荷重をもつニューロンが発火し,その近傍のニューロンも距離にあわせて発火する.

これを「トポロジー保存性」という特徴を持つ.

自己組織化マップ(Self-Organizing Map, SOM) (1981年)

入力層 分析対象のデータ: j番目のデータの

特徴ベクトルを xj = (xj1, xj2, …, xjn) とする.

出力層 反応するユニット: i番目のユニットを

mi とする.

シナプス荷重 重み: 特徴ベクトルから出力層のユ

ニット mi への重みを mi = (mi1, mi2, …, min) とする. 入力層

自己組織化マップの構成

mi1 mi2 ... min

mi

xj1 xj2 … xjn

出力層

シナプス荷重

Page 7: student 9.ppt [互換モード]ihaya/bc/9/9.pdf1 ブレイン・コンピューティング ⑨ 林勲 研究室:TA310 ihaya@cbii.kutc.kansai-u.ac.jp Neo-cognitron, Fukushima, 1980

7

1. 入力層に j番目のデータを提示する.

2. 出力層におけるすべてのユニットの中から,最も類似しているユニットを探索し,勝者ユニット mc とする.

3. 勝者ユニットとその近傍のユニットの重みベクトル mi を更新する.

4. すべての入力データ j = 1, 2, …, mに対して,上記のアルゴリズムを繰り返す.

入力層

アルゴリズム

mi1 mi2 ... min

mi

xj1 xj2 … xjn

出力層

シナプス荷重

ijicj mxmx min

))(2

exp()()(

)(

))()()(()()1(

2

2

trr

tth

Nit

Nittthtt

icci

ci

cijciii

m

mxmm

),,,( 21 jnjjj xxx x

ただし,hci(t) は近傍関数,α(t) は学習率係数,rc と ri はユニット c と iの2次元上の座標ベクトル,σ2(t) はユニット cの近傍領域 Nc の半径を調整する関数である.なお,α(t)と σ2(t) は単調減少関数である.

1. 入力層:

2. 出力層:

3. 勝者ユニットと近傍:

入力層

mi1 mi2 ... min

mi

xj1 xj2 … xjn

出力層

シナプス荷重

ijicj mxmx min

))(2

exp()()(

)(

))()()(()()1(

2

2

trr

tth

Nit

Nittthtt

icci

ci

cijciii

m

mxmm

),,,( 21 jnjjj xxx x

ただし,hci(t) は近傍関数,σ2(t) はユニット cの近傍領域 Nc の半径を調整する関数であり,α(t)と σ2(t) は単調減少関数である.

アルゴリズム

応用例 動物の分類

漫画家の分類

パソコンの分類

多角形の分類