データ解析 第十回「ノンパラメトリック推定...

42
データ解析 第十回「ノンパラメトリック推定法(1)」 鈴木 大慈 理学部情報科学科 西八号館 W707 号室 [email protected] 1 / 36

Upload: others

Post on 17-Jun-2020

2 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

データ解析第十回「ノンパラメトリック推定法(1)」

鈴木 大慈理学部情報科学科西八号館W707号室

[email protected]

1 / 36

Page 2: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

休講情報

6/24は休講

2 / 36

Page 3: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

今日の講義内容

カーネル密度推定スプライン回帰

3 / 36

Page 4: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

構成

1 カーネル密度推定

2 ノンパラメトリック回帰:B-スプライン

4 / 36

Page 5: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

カーネル密度推定の目的

ある分布の密度関数を推定したい.

いままではパラメトリックモデルの上での推定手法を紹介してきた.(最尤推定,ベイズ推定)

もし分布を適切なパラメトリックモデルで記述できなかったら?

→ ノンパラメトリック推定カーネル密度推定はその代表的な方法.

5 / 36

Page 6: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

カーネル密度推定で何が得られる?

−3 −2 −1 0 1 2 3

0.0

0.1

0.2

0.3

0.4

0.5

0.6

Kernel Density Estimation (gauss)

x

p(x)

6 / 36

Page 7: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

カーネル密度推定量

{Xi}ni=1: データ (一次元とする)カーネル密度推定量: あるカーネル関数 K を用いて,

p(x) =1

n

n∑i=1

K

(x − Xi

h

).

1 h > 0のことをバンド幅と呼ぶ.適切に選択する必要がある.2 K は次の性質を満たすものとする:∫

K (x)dx = 1,

∫xK (x)dx = 0,

∫x2K (x) > 0.

7 / 36

Page 8: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

−1 0 1 2 3 4

0.0

0.1

0.2

0.3

0.4

0.5

x

p(x)

8 / 36

Page 9: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

カーネルの種類

次のようなカーネル関数がよく用いられる.

1 Gaussian:

K (x) =1√2π

exp

(−x2

2

).

2 Rectangular:

K (x) =

{12 (|x | ≤ 1),

0 (otherwise).

3 Triangular:

K (x) =

{|x | (|x | ≤ 1),

0 (otherwise).

4 Epanechnikov:

K (x) =

{34 (1− x2) (|x | ≤ 1),

0 (otherwise).

9 / 36

Page 10: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

カーネルの種類

−3 −2 −1 0 1 2 3

0.0

0.2

0.4

0.6

0.8

1.0

x

K(x

)

kernel functions

RectangularTriangularGaussianEpanechnikov

kernel functions

RectangularTriangularGaussianEpanechnikov

10 / 36

Page 11: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

カーネル密度推定量の様子

−3 −2 −1 0 1 2 3

0.0

0.1

0.2

0.3

0.4

0.5

0.6

Kernel Density Estimation

x

p(x)

11 / 36

Page 12: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

カーネル密度推定量の様子

−3 −2 −1 0 1 2 3

0.0

0.1

0.2

0.3

0.4

0.5

0.6

Kernel Density Estimation

x

p(x)

11 / 36

Page 13: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

カーネル密度推定量の様子

−3 −2 −1 0 1 2 3

0.0

0.1

0.2

0.3

0.4

0.5

0.6

Kernel Density Estimation

x

p(x)

11 / 36

Page 14: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

カーネル関数の種類と推定結果

n = 100

−3 −2 −1 0 1 2 3

0.0

0.1

0.2

0.3

0.4

0.5

0.6

Kernel Density Estimation (rectangular)

x

p(x)

−3 −2 −1 0 1 2 3

0.0

0.1

0.2

0.3

0.4

0.5

0.6

Kernel Density Estimation (triangular)

x

p(x)

−3 −2 −1 0 1 2 3

0.0

0.1

0.2

0.3

0.4

0.5

0.6

Kernel Density Estimation (gauss)

x

p(x)

rectangular triangular gauss

12 / 36

Page 15: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

カーネル関数の種類と推定結果

n = 10000

−3 −2 −1 0 1 2 3

0.0

0.1

0.2

0.3

0.4

0.5

0.6

Kernel Density Estimation (rectangular)

x

p(x)

−3 −2 −1 0 1 2 3

0.0

0.1

0.2

0.3

0.4

0.5

0.6

Kernel Density Estimation (triangular)

x

p(x)

−3 −2 −1 0 1 2 3

0.0

0.1

0.2

0.3

0.4

0.5

0.6

Kernel Density Estimation (gauss)

x

p(x)

rectangular triangular gauss

12 / 36

Page 16: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

カーネル関数の種類と推定結果

n = 100000

−3 −2 −1 0 1 2 3

0.0

0.1

0.2

0.3

0.4

0.5

0.6

Kernel Density Estimation (gauss)

x

p(x)

gauss

12 / 36

Page 17: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

カーネル密度推定量とバンド幅

−3 −2 −1 0 1 2 3

0.0

0.1

0.2

0.3

0.4

0.5

0.6

x

p(x)

band width

true0.0240.242.4

バンド幅は適切に選ぶ必要がある.13 / 36

Page 18: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

最小二乗クロスバリデーション

最小二乗クロスバリデーション: LSCV, Least Squares Cross Validation.

真の密度との二乗距離 (ph をバンド幅 hのカーネル密度推定量とする)∫(ph(x)− p(x))2dx

=

∫ph(x)

2dx − 2

∫ph(x)p(x)dx︸ ︷︷ ︸

=:J(h)

+

∫p2(x)dx .

J(h)を最小化すれば良い.しかし p(x)による積分がわからない→サンプルで代用.ただし,手元にあるサンプルと ph は相関があるのでクロスバリデーションする.

ph,(−i): i 番目のサンプル Xi を抜いて推定した密度関数.

J(h) =

∫ph(x)

2dx − 2

n

n∑i=1

ph,(−i)(Xi ).

J(h)を最小にする hを採用すればよい.14 / 36

Page 19: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

ヒューリスティクス

Silvermanの方法

1 サンプル標準偏差: s =√

1n

∑ni=1(Xi − X )2.

2 サンプル分位点 q(0.25): サンプルの 0.25分位点.

σ = min

{s,

q(0.75)− q(0.25)

1.34

}として,次のようにする:

h =1.06σ

n1/5.

1.06は人によって別の定数に置き換えたりする (1.06を Scottのルール,0.9をSilvermanのルールと言う).

特に理論的根拠はないが,二乗誤差を漸近展開すると,

h =[

CK

n(∫f ′′(x)dx)

]1/5,

(ただし CK =∫K(x)2dx

(∫x2K(x)dx)2

) が漸近的に最小二乗誤差を与えることが示せて,上

のヒューリスティクスは未知の値∫f ′′(x)dx に当たりを付ける経験則とみなせる.

15 / 36

Page 20: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

−3 −2 −1 0 1 2 3

0.0

0.1

0.2

0.3

0.4

0.5

0.6

x

p(x)

band width

trueCVSilverman (1.06)

ヒューリスティクスも良い推定結果を出している.

16 / 36

Page 21: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

多変量カーネル密度推定

カーネル密度推定は多変量へ拡張できる. 1hK ( x−Xi

h ) の代わりに,

d∏j=1

1

hjK

(x − X

(j)i

hj

)

のようにする.なお,X(j)i はサンプル Xi の j 番目の座標.

� �library(MASS)

d=kde2d(x,y,c(bandwidth.nrd(x),bandwidth.nrd(y)),n=80)

image(d,xlab="latitude",ylab="longitude")� �

17 / 36

Page 22: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

世田谷区中古マンション価格データ

2e+07 4e+07 6e+07 8e+07

2040

6080

100

price

area

18 / 36

Page 23: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

世田谷区中古マンション価格データ

0e+00 2e+07 4e+07 6e+07 8e+07 1e+08

020

4060

8010

012

0

price

area

5e−11

1e−10

1.5e−10

2e−10

2.5e−10

3e−10

3.5e−10

3.5e−10

4e−10

4e−10

18 / 36

Page 24: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

世田谷区中古マンション価格データ

price

area

estimated density

18 / 36

Page 25: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

カーネル密度推定を行えるR関数使い方はスクリプトを参照

1次元のカーネル密度推定density(x,bw,kernel):

バンド幅: bw = ”nrd0”がデフォルト (シルバーマンの方法で 0.9を採用),bw=”’nrd’で 1.06. bw=”ucv”で (バイアス修正した) クロスバリデーション,bw=”bcv”でクロスバリデーション.カーネル関数: kernel=”gaussian”がデフォルト.他にも”epanechnikov”,”rectangular”, ”triangular”, ”biweight”,”cosine”, ”optcosine”が指定可能.

bkde: ‘KernSmooth’パッケージに入っている.

二次元以上

kde2d: ‘MASS’パッケージに入っている.2次元用.

bkde2d: ‘KernSmooth’パッケージに入っている.2次元用.

kde: ‘ks’パッケージに入っている.3次元以上の密度推定も行える.

MASSパケージの bandwidth.nwdは bw.nwdの 4倍の値を返す.

19 / 36

Page 26: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

構成

1 カーネル密度推定

2 ノンパラメトリック回帰:B-スプライン

20 / 36

Page 27: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

ノンパラメトリック回帰

5 10 15

24

68

10

cubic spline fitting

Index

y18

method

splinelinear

21 / 36

Page 28: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

スプライン回帰

ノンパラメトリック回帰の基本的構造:

f (x) =

q∑j=1

αjBj(x).

Bj(x)はある非線形な基底関数.ここでは,「B-スプライン基底」を考える.

22 / 36

Page 29: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

B-スプライン基底

B-スプライン基底関数は局所的な多項式関数である.例えば,3次 B-スプラインの場合,Bk は次のような局所3次多項式である:

Bk(x) =

{ak + bkx + Ckx

2 + dkx3 (tk ≤ x ≤ tk+4),

0 (otherwise).

ここで,tk は節点 (節点) と言う.節点 (節点): t1 ≤ · · · ≤ tq+1

3次スプラインの場合,tk の候補としてサンプル点 Xi を用いて次のようにしたりする:

t1 ≤ t2 ≤ t3 ≤ t4 = X1 < · · · < Xn = tn+3 ≤ tn+4 ≤ tn+5 ≤ tn+6.

((X1, . . . ,Xn)の外側に 6個余分に節点を適当に設定)

23 / 36

Page 30: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

B-スプライン基底の具体的な形

係数 ak , bk , ck , dk の決め方は本講義の範疇を超えるが,j 次 B-スプライン基底は

B(1)k (x) =

{1 (tk ≤ x ≤ tk+1)

0 (otherwise),

B(j)k (x) =

x − tktk+j − tk

B(j−1)k (x) +

tk − x

tk+j+1 − tk+1B

(j−1)k+1 (x),

なる漸化式で決まる.j = 3の時に 3次 B-スプライン基底を得る.

要は非線形な関数を局所的に 3次多項式で近似しましょうということ.3次 B-スプラインを 3次-スプライン,キュービック-スプラインと呼んだりする.

24 / 36

Page 31: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

回帰係数の決定と平滑化

以後,3次スプライン基底考え,各データ点 Xi は節点になっているものとする.節点が Xi であるような 3次スプライン基底を Bi (x) (i = 1, . . . , n)と書き直し,Bn+1(x) = x , Bn+2(x) = 1とする.この合計 n + 2個の基底を用い,次のような関数を構成する:

f (x ;α) =n∑

i=1

αiBi (x) + αn+1x + αn+2.

α ∈ Rn+2 をデータから推定したい.3次スプラインでは次のようにして推定する.

minα∈Rn+2

n∑i=1

(Yi − f (Xi ;α))2 + λ

∫ Xn

X1

(d2f (x ;α)

dx2

)2

dx︸ ︷︷ ︸正則化項

.

※ 正則化項を加えることで,推定した関数が滑らかになるように調整 →平滑化.これがなければデータに過適合してしまう.※ λ > 0は適切に選ぶ必要がある (クロスバリデーション).※ リッジ回帰と対応.

25 / 36

Page 32: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

二次関数への展開

二乗損失は次のように展開される:

n∑i=1

(Yi − f (Xi ;α))2 =

n∑i=1

(Yi −n+2∑j=1

αjBj(Xi ))2

=n+2∑j=1

n+2∑j′=1

αjαj′

n∑i=1

(Bj(Xi )Bj′(Xi ))−n+2∑j=1

αj

n∑i=1

YiBj(Xi ) + Y⊤Y

=: α⊤B⊤Bα− Y⊤Bα+ Y⊤Y .

正則化項は次のように展開される:∫ Xn

X1

(d2f (Xi ;α)

dx2

)2

dx =

∫ Xn

X1

n+2∑j=1

αjd2Bj(x)

dx2

2

dx

=n+2∑j=1

n+2∑j′=1

αjαj′

∫ Xn

X1

d2Bj(x)

dx2d2Bj′(x)

dx2dx

=:n+2∑j=1

n+2∑j′=1

αjαj′Gj,j′ = α⊤Gα.

26 / 36

Page 33: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

二次式の最小化

Bi,j = Bj(Xi ), Gj,j′ =

∫ Xn

X1

d2Bj(x)

dx2d2Bj′(x)

dx2dx ,

として,

minα∈Rn+2

n∑i=1

(Yi − f (Xi ;α))2 + λ

∫ Xn

X1

(d2f (x ;α)

dx2

)2

dx

⇔ minα∈Rn+2

α⊤B⊤Bα− Y⊤Bα+ λα⊤Gα

⇒ α = (B⊤B+ λG )−1B⊤Y ,

で回帰係数が求まる.

27 / 36

Page 34: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

平滑化パラメータの決定: CV, GCV

さて,λはどう選ばばよいか?→ 例のごとくクロスバリデーション (CV).

CV =

∑ni=1(Yi − f(−i)(Xi ))

2

n

f(−i)(Xi )は (Xi ,Yi )を抜いて推定した 3次スプライン関数.

GCV =

∑ni=1(Yi − f (Xi ))

2

n(1− Tr[A(λ)]/n)2,

ただし,A(λ) := B(B⊤B+ λG )−1B⊤. GCVは CVの計算を楽にするために提案されたが,統計的に良い性質があることが知られている.R (smooth.spline) のデフォルトは GCV.

28 / 36

Page 35: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

スプラインを実行� �y18 <- c(1:3, 5, 4, 7:3, 2*(2:5), rep(10, 4))

artdata <- data.frame(x=1:18,y=y18)

s01 <- smooth.spline(artdata)� �で自動的に λも GCVで選択.

5 10 15

24

68

10

cubic spline fitting

Index

y18

29 / 36

Page 36: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

正則化パラメータの影響

5 10 15

24

68

10

cubic spline fitting

Index

y18

lambda

CVsmallLarge

正則化パラメータが小さいと過適合,大きすぎると線形回帰になる.ちょうど良いパラメータは GCVで選ぶ.s02 <- smooth.spline(artdata, spar = 0.02)

s03 <- smooth.spline(artdata, spar = 1)30 / 36

Page 37: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

スプラインを実行: gam

同様のことが mgcvパッケージに入っている gamという関数でも可能.� �gam.s01 <- gam(y~s(x),data=artdata)� �

s(x)と書くことでスプラインを使うことを指定.細かい次数や節点の設定も可能.これで勝手に GCVで正則化パラメータを選んでフィッティングしてくれる.

31 / 36

Page 38: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

gamのGCV値

gamを使って,GCV値を計算してみる.� �sp<-seq(from=0.0001,to=0.005,length=100)

GCV_art<-numeric()

for(i in 1:length(sp)){

g.m<-gam(y~s(x),sp=sp[i],data=artdata)

GCV_art[i]<-g.m$gcv.ubre

}

plot(sp,GCV_art,type="l",lwd=2,xlab="lambda",ylab="GCV")� �

32 / 36

Page 39: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

gamのGCV値

0.000 0.001 0.002 0.003 0.004 0.005

0.70

0.75

0.80

0.85

lambda

GC

V

33 / 36

Page 40: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

smooth.splineと gamの比較

5 10 15

24

68

10

smooth.spline and gam

Index

y18

method

smooth.spline(GCV)overfitgam(GCV)

ほぼ同じ結果

34 / 36

Page 41: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

まとめ

2つのノンパラメトリックな推定手法を紹介した.1 密度推定→カーネル密度推定2 回帰→ B-スプライン回帰

どちらも,バンド幅や正則化パラメータといったパラメータを CVなどを用いてうまく調整する必要があった.

35 / 36

Page 42: データ解析 第十回「ノンパラメトリック推定 …ibis.t.u-tokyo.ac.jp/suzuki/lecture/2014/dataanalysis/L...データ解析 第十回「ノンパラメトリック推定法(1)」

講義情報ページ

http://www.is.titech.ac.jp/~s-taiji/lecture/dataanalysis/dataanalysis.html

36 / 36