深層学習と その画像認識への応用に関する...

70
岡谷貴之 東北大学情報科学研究科, JST CREST 深層学習と その画像認識への応用に関する 最近の研究動向

Upload: others

Post on 01-Sep-2019

0 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

岡谷貴之東北大学情報科学研究科, JST CREST

深層学習とその画像認識への応用に関する

最近の研究動向

Page 2: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

目次• 最近までの状況:画像認識の革命• いろいろなディープネット• ディープネットの学習

– 確率勾配降下法とその発展– 重みの圧縮– 転移学習

• ディープネットの理解– 多層の意義– 実験的解析– 生物との対応

• まとめ

Page 3: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

目次• 最近までの状況:画像認識の革命• いろいろなディープネット• ディープネットの学習

– 確率勾配降下法とその発展– 重みの圧縮– 転移学習

• ディープネットの理解– 多層の意義– 実験的解析– 生物との対応

• まとめ

Page 4: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

「物体カテゴリ認識」

⇒ ‘lion’

⇒ ‘acousticguitar’

⇒ ‘electric guitar’

⇒ ‘chambered nautilus’

⇒ ‘table lamp’

⇒ ‘Blenheimspaniel’

⇒ ‘Japanesespaniel’

⇒ ‘crane’

Computer ‘lion’

Page 5: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

CNN:畳込みニューラルネット• Convolutional Neural Network– 畳込み層とプーリング層の交互反復+全結合層を持つフィードフォワードネット

– 重みをランダムに初期化し,教師あり学習

ILSVRC12のCNN [Krizhevsky+12]“Alexnet”

Page 6: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

大規模な学習• 100万枚を超える学習サンプル(画像・クラスラベル)

– 1000の物体カテゴリ・1000枚/カテゴリ• 最新のGPUを用いて数日~数週間かけて学習• 人を超える認識精度

(He+, Delving deep into rectifier, 2015)

Page 7: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

実例

Page 8: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

2012-2015の発展

AlexNet [Krizhevsky+12]

GoogLeNet [Szegedy+14]

VGGNet[Simonyan+14]

ResNet [He+15]

conv1-2

dataconv1-1

pool1

conv2-2conv2-1

pool2

conv3-2conv3-1

conv3-3pool3

conv4-2conv4-1

conv4-3pool4

conv5-2conv5-1

conv5-3pool5fc6fc7fc8

Page 9: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

物体検出(R-CNN)

• 物体の種類と位置を認識:物体認識のCNNを流用Girshick et al., Rich feature hierarchies for accurate object detection and semantic segmentaiton, CVPR2014

Faster RCNN [Ren+15]

Page 10: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

ポーズ認識Toshev, Szegedy, DeepPose: Human Pose Estimation via Deep Neural Networks, CVPR2014

• 回帰問題として定式化(画像から骨格の姿勢を予測)• 物体認識のCNNを流用

Page 11: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

画像記述Vinyals+, Show and Tell: A Neural Image Caption Generator, CVPR2015

Page 12: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

画像記述• あ

Vinyals+, Show and Tell: A Neural Image Caption Generator, CVPR2015

Page 13: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

目次• 最近までの状況:画像認識の革命• いろいろなディープネット• ディープネットの学習

– 確率勾配降下法とその発展– 重みの圧縮– 転移学習

• ディープネットの理解– 多層の意義– 実験的解析– 生物との対応

• まとめ

Page 14: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

様々なニューラルネットワーク

④たたみこみネット(CNN)

⑤リカレントネット(RNN)

③オートエンコーダ(自己符号化器) ⑥ボルツマンマシン

①②フィードフォワードネット

i

j

k

W

x1

x2

x3

x4

y1

y2

W(2)

W(3)

h(1)

h(2)

h(3)

v

(h(0))

W(3)

W(2)

W(1)

教師あり

決定論的

教師なし

確率的

静的動的

x1

x2

xm

W,b

x̂(x)x

y(x)

W̃, b̃

Page 15: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

フィードフォワードネットx1

x2

x3

x4

zu z

w1

w2

w3

w4

−5 0 5−1

−0.5

0

0.5

1z =

1

1 + e�u

z = max(u, 0)

z = tanh(u)

……… … …

x1

x2

x3

x4

u1

u2

u3 z3

z2

z1

z3

z2

z1

Page 16: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

CNN:畳込みニューラルネット

• Neocognitronにルーツ [Fukushima80]• LeNet:手書き文字認識への応用で成功 [LeCun+89]

– Backpropagation Applied to Handwritten Zip Code Recognition, 1989

• 神経科学の知見が基礎– Hubel-Wiesel の単純細胞・複雑細胞– 局所受容野(local receptive field)

[Fukushima+83] [LeCun+89]

Convolutional Neural Network

Page 17: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

CNNの二つの演算:畳込みとプーリング

32

8

畳込み(層) プーリング(層)

N個のフィルタ N枚の

マップ

… … …4×4→1

8×8×N

5

32

5 8

• 共有重み• 疎結合

• 固定配線(重み)• 疎結合

Page 18: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

二つの演算:畳込みとプーリング

32

8

畳込み(層) プーリング(層)

N個のフィルタ N枚の

マップ

… … …4×4→1

8×8×N

5

32

5 8

• 共有重み• 疎結合

• 固定配線(重み)• 疎結合

特徴抽出 シフト不変性

微小変位に対する不変性を獲得

Page 19: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

CNN:畳込みニューラルネット• Convolutional Neural Network– 畳込み層とプーリング層の交互反復+全結合層を持つフィードフォワードネット

– 重みをランダムに初期化し,教師あり学習

ILSVRC12のCNN [Krizhevsky+12]“Alexnet”

Page 20: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

リカレントニューラルネット(RNN)

Win = (winji )

Wout = (wout

kj

)

i

j

k

W

W = (wjj0)

j0

j

t

t+ 1

t

Win

Wout

zt

yt

x

t

W

Page 21: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

系列データへの適用

x1 x2

y2y1 yt�1 yt

xt�1 xt xt+1x1 x2

y2y1

We can get an idea of the quality of the learned feature vectors by displaying them in a 2-D map.

次の単語を予測例:言語モデル

<start> We

We can

of the

the qualityWe can

<start> We quality

Page 22: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

RNN=ディープフィードフォワードネット• 時間方向に展開 à フィードフォワードネットになる

t = 1 2 t

x

1

z1

y1

Win

Wout

WWin

Wout

WWin

Wout

Win

Wout

W

y2

z2

x

2

zt

yt

x

t

t

Win

Wout

zt

yt

x

t

W

y3

z3

x

3

3

tt� 1

Win

Wout

W

(�out,tk

)

(�tj)(�t�1j )

(�out,t�1k

)

(�t+1j )

(�out,t+1k

)

W

t+ 1

BPが使える:実はディープネット→ 勾配消失問題との戦い→ 高々10ステップ程度の履歴しか学習できない

Page 23: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

LSTM:Long Short-Term Memory

gF,tj

gO,tj

gI,tj

wOjj0wO,in

ji

wI,inji wI

jj0

wFjj0

st�1j

st�1j

st�1j

stj

wjj0

wF,inji

winji

ztj

stj

i

j

k

W

忘却ゲート

出力ゲート

入力ゲート

• より長い履歴を捉える

• BPで勾配は計算可(ややこしい!)

• 3つのゲートでより高度な動作

Page 24: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

画像記述Vinyals+, Show and Tell: A Neural Image Caption Generator, CVPR2015

Page 25: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

目次• 最近までの状況:画像認識の革命• いろいろなディープネット• ディープネットの学習

– 確率勾配降下法とその発展– 重みの圧縮– 転移学習

• ディープネットの理解– 多層の意義– 実験的解析– 生物との対応

• まとめ

Page 26: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

クラス分類の教師あり学習

交差エントロピー

softmax

laye

r

学習サンプル

勾配降下法(GD:Gradient Descent)

モメンタム Weight-decay

d1 d2

p2 pn

wij

�wij = ✏@C

@wij

+↵�w0ij � ✏�wij

C = �nX

j

dj log pj

• 出力の誤差が小さくなるように重み を調節{wij}, {bj}

0 1 0dn

p1

Page 27: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

誤差逆伝播と確率的勾配降下

• 誤差逆伝播法

• 確率的勾配降下法(SGD: stochastic gradient descent)– ミニバッチ:100個程度のサンプルごとに重みを更新

勾配の連鎖計算k

wjk

j

wij

i

�j

�k = pk � dk

@C

@wij= �jyi

�j = f

0(xj)X

k

�kwjk

p1 p2 pn

Page 28: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

ディープネットの学習の困難さ• 多層になると過適合(過学習)・ローカルミニマム

• 勾配消失(vanishing gradient)問題– デルタが急速に小さく,あるいは大きくなり制御できない

# epochs

error

train error

test error

Page 29: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

確率的勾配降下法の改良• 標準的方法

• AdaGrad(adaptive gradient) [Duchi+2011]

• ADAM (adaptive moment) [Kigma-Ba2015]

✓t ✓t�1 � ↵gt

✓t = ✓t�1 � ↵gt/

vuuttX

i=1

g2i

Page 30: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

dropout• 学習時一定の確率(p)で中間層のユニットを「無効化」

• 予測時:ユニット出力を p 倍– 学習時の補償

w1izi

w2izi

w3izi

w4izi

zii i

pw1izi

pw2izi

pw3izi

pw4izi

[Hinton+12]

Page 31: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

バッチ正規化• ミニバッチ単位で各層出力の平均と分散を揃える

• 収束性能(速度と到達点)が向上• 線形変換層の挿入で表現可

活性化関数線形変換

積和

Page 32: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

Deep residual learning• 100層を超えるネットの学習が可能に

– ILSVRC2015チャンピオン

ReLU

ReLU

x

+

x

weight layer

weight layer

Deep residual learning for image recognition [He+2015]

Page 33: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

学習の並列計算• データ並列とモデル並列のミックス

– データ並列:異なるminibatchを計算– モデル並列:同じminibatch・計算を分割

Krizhevsky, One weird trick for parallelizing convolutional neural networks, 2014

Page 34: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

目次• 最近までの状況:画像認識の革命• いろいろなディープネット• ディープネットの学習

– 確率勾配降下法とその発展– 重みの圧縮– 転移学習

• ディープネットの理解– 多層の意義– 実験的解析– 生物との対応

• まとめ

Page 35: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

重みの冗長性と圧縮• 学習で得られる重みは冗長

– 一部から残りを予測可能;一部だけ学習すれば済む

• 学習後のネットの圧縮法が様々に検討されている– [Denton+14] [Ba-Caruana13] [Collins-Kohli14]

x1

x2

x3

x4

y1

y2

W(2)

W(3)

l = 1 2 3

Denil+, Predicting Parameters in Deep Learning, 2013

≒ �

W

Page 36: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

"Knowledge Distillation"• 目標を1-of-k符号ではなく,学習済みの大きいネットの確率(を鈍らせたもの)に

• MNISTの場合– そのままだと誤り率1.46%の小さいネットを誤り率0.67%の大きなネットの知識を転送 ⇒ 誤り率0.74に減少

– ‘3’を故意に省いて学習 ⇒ 上の方法でやると1.09%の誤り率( ‘3’の誤り率は1.4%しかない)

Hinton+, Distilling the Knowledge in a Neural Network, 2015

34503

89765

Page 37: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

目次• 最近までの状況:画像認識の革命• いろいろなディープネット• ディープネットの学習

– 確率勾配降下法とその発展– 重みの圧縮– 転移学習

• ディープネットの理解– 多層の意義– 実験的解析– 生物との対応

• まとめ

Page 38: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

転移学習• 物体認識を学習したCNNが獲得した特徴は万能

DeCAF [Denahue+13], CNN features off-the-shelf [Razavian+14]

From Razavian+, CNN Features off-the-shelf: an Astounding Baseline for Recognition, 2014

Feature

‘kitchen’

SVM etc.

Page 39: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

• 1つのタスクを学習したネットの重みを別タスクに転用– 下位層では基礎的特徴が学習 ⇒ 何にでも流用される– 限られた上位層のみの再学習 ⇒ 小規模データで十分

転移学習・fine-tuning

conv3

conv4

conv5

input (im

age)

conv2

conv1

fc6

fc7

fc8

output (category label)

conv3

conv4

conv5

input (im

age)

conv2

conv1

fc6

fc7

fc8

output (category label)

物体カテゴリ認識

別のタスク ※①②

Page 40: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

目次• 最近までの状況:画像認識の革命• いろいろなディープネット• ディープネットの学習

– 確率勾配降下法とその発展– 重みの圧縮– 転移学習

• ディープネットの理解– 多層の意義– 実験的解析– 生物との対応

• まとめ

Page 41: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

画像認識のプロセス

特徴抽出 分類特徴量画像 結果

Pedestrian

特徴空間

Non-pedestrian

大量の学習データを用いて機械学習

Page 42: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

人の行動

画像認識技術の現状

バーコード

���� 道路標識ナンバープレート指紋

手書き文字 顔

材質・質感

一般物体

実用レベル

研究途上

画像から何を取り出すか?(どんな特徴)

Page 43: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

問題の難しさLionCatDog…

特徴抽出 分類特徴量画像

Page 44: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

問題の難しさ• 特徴に求められる性質

– 不変性:カテゴリ内変動に不変(≒鈍感)– 識別力:僅かな違いにも敏感

“Television set”

Page 45: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

ディープラーニング:特徴の設計から特徴の学習へ

特徴抽出 分類特徴量画像 結果

特徴抽出 分類特徴量画像 結果

手で設計 機械学習

ディープラーニング(特徴も一緒に学習)

Page 46: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

大規模な学習• ImageNet:約2万synsetの計1400万枚

– ILSVRC:1000の物体カテゴリ・1000枚/カテゴリ• GPUを用いて数日~数週間かけて学習• 物体カテゴリ認識などで人を超える認識精度

(He+, Delving deep into rectifier, 2015)

Page 47: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

入力画像に対するレスポンス

入力

初期畳込み層プーリング層

最終畳込み層全結合層

softmax

出力層

何を計算しているのか不明!(解釈不可能)

Page 48: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

学習された特徴

第1畳込み層フィルタ第2畳込み層フィルタ

第3畳込み層フィルタ

何を学習したのか不明!(解釈不可能)

Page 49: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

目次• 最近までの状況:画像認識の革命• いろいろなディープネット• ディープネットの学習

– 確率勾配降下法とその発展– 重みの圧縮– 転移学習

• ディープネットの理解– 多層の意義– 実験的解析– 生物との対応

• まとめ

Page 50: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

多層であることの意味• 2層ネットでも中間層のユニット数次第でどんな関数も表現可能(universal approximation theory)[Hornik+89, Cybenko89]

• 152層のResNetがILSVRC2015でトップ [He+2015]

Deep residual learning for image recognition [He+2015]

Page 51: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

Rectifier Net

x1

x2

x3

x4

zu z

w1

w2

w3

w4

−5 0 5−1

−0.5

0

0.5

1z =

1

1 + e�u

z = max(u, 0)

z = tanh(u)

x1

x2

x3

x4

u1

u2

u3 z3

z2

z1

z3

z2

z1

Page 52: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

Rectifier Netの線形領域数• Rectifierネットは入力空間を超平面分割

• n0次空間内のn1個の超平面による空間分割数は高々

x = [x1, x2, x3]

x1

x2

x3

u1

u2

u3 z3

z2

z1

z3

z2

z1

x1

x2

x3

zi = max(w

>i x+ bi, 0)

n0X

j=0

✓n1

j

Montufar+, On the Number of Linear Regions of Deep Neural Networks, 2014

Page 53: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

Rectifier Netの線形領域数Montufar+, On the Number of Linear Regions of Deep Neural Networks, 2014

L�1Y

i=1

�ni

n0

⌫n0!

n0X

j=0

✓nL

j

◆L層ネットの入力空間の線形領域数:

……… … …

Page 54: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

目次• 最近までの状況:画像認識の革命• いろいろなディープネット• ディープネットの学習

– 確率勾配降下法とその発展– 重みの圧縮– 転移学習

• ディープネットの理解– 多層の意義– 実験的解析– 生物との対応

• まとめ

Page 55: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

学習された特徴

第1畳込み層フィルタ第2畳込み層フィルタ

第3畳込み層フィルタ

Page 56: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

CNNの「可視化」1. 各層各ユニットを最も活性化する画像[Zeiler+14]2. GAP(global average pooling)層の出力[Lin+14]3. カテゴリ尤度を最大化する最適入力 [Simonyan+14]4. カテゴリ尤度のヤコビ行列(入力に関する微分)[Simonyan+14]5. 中間層から入力を逆算 [Mahendran+15]

(2)

(3)

(4)

(5)

Page 57: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

各層各ユニットを活性化する入力画像Zeiler, Fergus, Visualizing and understanding convolutional networks, ECCV2014

Page 58: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

CNNの「可視化」1. 各層各ユニットを最も活性化する画像[Zeiler+14]2. GAP(global average pooling)層の出力[Lin+14]3. カテゴリ尤度を最大化する最適入力 [Simonyan+14]4. カテゴリ尤度のヤコビ行列(入力に関する微分)[Simonyan+14]5. 中間層から入力を逆算 [Mahendran+15]

(2)

(3)

(4)

(5)

Page 59: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

CNNの「最適入力」Simonyan+, Deep Inside Convolutional Networks: Visualising..., 2013

Page 60: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

CNNの「最適入力」Google blogpost, Deep dream, 2015

Page 61: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

画風を再現した風景画像• スタイルの層内チャネル間の相関を入力の各層出力と一緒に再現

Gatys+, A Neural Algorithm of Artistic Style, 2015

Page 62: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

目次• 最近までの状況:画像認識の革命• いろいろなディープネット• ディープネットの学習

– 確率勾配降下法とその発展– 重みの圧縮– 転移学習

• ディープネットの理解– 多層の意義– 実験的解析– 生物との対応

• まとめ

Page 63: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

視覚皮質の2つの経路Dorthal (where) stream

Ventral (what) stream

(背側視覚皮質路)

(腹側視覚皮質路)

Fulton, James T., Processes in Biological Vision

Page 64: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に
Page 65: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

CNNとventral streamZeiler, Fergus, Visualizing and understanding convolutional networks, ECCV2014

Kruger et al., Deep Hierarchies in the Primate Visual Cortex:What Can We Learn for Computer Vision?, PAMI2013

Page 66: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

CNN = a good model of ventral stream

• 多層CNNとサルの高次視覚野の神経活動に高い類似性Yamins, Performance-optimized hierarchical models predict neural responses in higher visual cortex, 2014

Page 67: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

CNNを騙す• 人には同じに見えるが,CNNには全然違って見える

Szegedy+, Intriguing properties of neural networks, 2014

Correctlyrecognized

Additive noise

Recognizedas“Ostrich”

Page 68: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

CNNを騙す• 人にはそうは見えないがCNNにはそう見える

Nguyen+, Deep Neural Networks are Easily Fooled..., 2014

Page 69: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

目次• 最近までの状況:画像認識の革命• いろいろなディープネット• ディープネットの学習

– 確率勾配降下法とその発展– 重みの圧縮– 転移学習

• ディープネットの理解– 多層の意義– 実験的解析– 生物との対応

• まとめ

Page 70: 深層学習と その画像認識への応用に関する 最近の研究動向acsi.hpcc.jp/2016/download/ACSI2016-tutorial2.pdf · Deep residual learning • 100層を超えるネットの学習が可能に

まとめ• 画像認識のいくつかのタスクで極めて高い性能

– 認識精度で人を上回る– できないタスクもまだ沢山ある

• GPU1台で数日~数週間の学習• 学習方法の進展によってより多層に• 高い性能がどこから来るのかはよく分からない

– 視覚皮質の研究との関係• その他の分野:音声認識・自然言語処理