acl2011読み会: query weighting for ranking model adaptation

65
ACL2011読み会: Query Weighting for Ranking Model Adapation 2011-09-03 Yoshihiko Suhara @sleepy_yoshi

Upload: sleepyyoshi

Post on 07-Jul-2015

2.089 views

Category:

Technology


1 download

DESCRIPTION

ACL2011読み会の発表資料

TRANSCRIPT

Page 1: ACL2011読み会: Query Weighting for Ranking Model Adaptation

ACL2011読み会: Query Weighting for

Ranking Model Adapation

2011-09-03

Yoshihiko Suhara

@sleepy_yoshi

Page 2: ACL2011読み会: Query Weighting for Ranking Model Adaptation

1012 Query Weighting for Ranking Model Adaptation

• by Peng Cai, Wei Gao, Aoying Zhou and Kam-Fai Wong

• ランキング学習+転移学習のはなし

2

Page 3: ACL2011読み会: Query Weighting for Ranking Model Adaptation

おことわり

• ACLは自然言語処理の会議

• そう気が付いたのは昨夜の2時でした

3

Page 4: ACL2011読み会: Query Weighting for Ranking Model Adaptation

1枚要約

• 目的

– 異なるドメインの訓練データを用いてランキング学習を行う

• 提案

– クエリ単位で事例転移 (instance transfer) を行うことを提案し,各クエリの重み付け方法を2種類提案

• 結論

– 転移元の訓練データだけを用いたベースライン,文書単位で事例転移する方法に比べて精度向上

4

Page 5: ACL2011読み会: Query Weighting for Ranking Model Adaptation

2つのキーワード

• Learning to rank (ランキング学習)

• Transfer learning (転移学習) /Domain adapation (ドメイン適応)

5

Page 6: ACL2011読み会: Query Weighting for Ranking Model Adaptation

Learning to rank

6

Page 7: ACL2011読み会: Query Weighting for Ranking Model Adaptation

7

近代的なランキングの実現方法 • 多数のランキング素性を用いてランキングを実現

クエリq

クエリqを含む 文書d

𝜙1(𝑞, 𝑑)

𝜙𝑚(𝑞, 𝑑)

𝜙𝑚+1(𝑑)

𝜙𝑛(𝑑)

𝐰TΦ(𝑞, 𝑑)

・・・

・・・ 検索スコア

文書の重要度 (クエリ非依存)

ランキング関数

クエリ・文書関連度 (クエリ依存)

e.g., BM25

e.g., PageRank

= Φ(𝑞, 𝑑)

Page 8: ACL2011読み会: Query Weighting for Ranking Model Adaptation

ランキング素性の例

• TF-TITLE □: 1

• TF-BODY □: 3

• IN-LINK: 5

• URL length: 12

<TITLE> hoge </TITLE>

<BODY> ... hoge .... ............................... ..... hoge ................ ............................... hoge ...................... </BODY>

http://www.hoge.com/

クエリq = “hoge” のときの文書1の例

Φ "hoge", 𝑑1 = 1, 3, 5, 12 𝑇 ⇒ 8

Page 9: ACL2011読み会: Query Weighting for Ranking Model Adaptation

ランキング学習の訓練データ

Training data

(𝒙11, 𝑦1

1)

… (𝒙2

1, 𝑦2

1)

(𝒙𝑛11, 𝑦𝑛1

1)

(𝒙12, 𝑦1

2)

(𝒙22, 𝑦2

2)

(𝒙𝑛22, 𝑦𝑛2

2)

(𝒙1𝑁, 𝑦1

𝑁)

(𝒙2𝑁, 𝑦2

𝑁)

(𝒙𝑛𝑁𝑁, 𝑦𝑛𝑁

𝑁)

𝑞1 𝑞2 𝑞𝑁

素性や評価はクエリ毎に与えられる

9

Page 10: ACL2011読み会: Query Weighting for Ranking Model Adaptation

正解データ (適合性評価) の作成方法

• クエリに対する検索結果集合の一部に対して,「クエリが表す意図」に適合しているかという観点で点数を付与 – 評価点数は多段階 – 複数の被験者の適合度を平均

10

クエリ:goo

1

5

0

4

適合度

クエリgooに対する適合度評価

gooトップ

スパムブログ

IT記事

被験者の事前知識 に依存するため, ブレなく評価するのは 難しい...

評価点数はクエリ・文書ペアに対して付与

(余談) 複数アノテータのモデル化 e.g., Amazon Mechanical Turks [Wu+ 11]

Page 11: ACL2011読み会: Query Weighting for Ranking Model Adaptation

ランキング学習におけるモデルの生成

Training data

学習 アルゴリズム モデル

未知のクエリ

予測値 𝒚 = (𝑦 1, 𝑦 1, ..., 𝑦 𝑛𝑡)

学習/生成

入力

出力

(𝒙1𝑡, ? )

(𝒙2𝑡, ? )

(𝒙𝑛𝑡𝑡, ? )

𝑞𝑡𝑒𝑠𝑡

直接順列を出力 する手法もある 11

Page 12: ACL2011読み会: Query Weighting for Ranking Model Adaptation

Transfer learning/ Domain adaptation

12

Page 13: ACL2011読み会: Query Weighting for Ranking Model Adaptation

Transfer learning (転移学習)

• Domain adaptation (ドメイン適応) とも呼ばれる

• 通常のInductive learningでは訓練データとテストデータの分布が同一であることを仮定

• 半教師あり学習はテストデータと同じ分布を仮定

• 異なる分布のデータを利用できないか?

– 事例x and/or ラベルyが異なる分布

⇒ 転移学習

13

Page 14: ACL2011読み会: Query Weighting for Ranking Model Adaptation

14

training items

Learning System

Learning System Knowledge

Traditional ML vs. TL

Learning Process of

Traditional ML

Learning Process of

Transfer Learning

training items

Learning System Learning System

([Pan+ 10]のスライドより引用)

source domain target domain

Page 15: ACL2011読み会: Query Weighting for Ranking Model Adaptation

15

Page 16: ACL2011読み会: Query Weighting for Ranking Model Adaptation

16

Transfer Learningの課題

• What to transfer

–何を?

• How to transfer

–どうやって?

• When to transfer

Page 17: ACL2011読み会: Query Weighting for Ranking Model Adaptation

17

Clustering

… × × Unsupervised Transfer Learning

Classification

Regression

× √ Transductive Transfer Learning

√ √

Classification

Regression

√ × Inductive Transfer Learning

Tasks Labeled data in

a target domain

Labeled data in

a source domain

Transfer learning settings

([Pan+ 10]のスライドより引用)

Transfer Learningにおける問題設定

Page 18: ACL2011読み会: Query Weighting for Ranking Model Adaptation

18

Inductive Transfer Learning

• 4つのアプローチ

– 1. instance transfer

– 2. feature representation transfer

– 3. parameter-transfer

– 4. relational knowledge transfer

Page 19: ACL2011読み会: Query Weighting for Ranking Model Adaptation

19

Instance transfer

• “... which assumes the certain parts of the data in the source domain can be reused for the target domain by re-weighting.”

• major technique – (a) re-weighting

– (b) important sampling

source domainの訓練データを

「適切に重み付け」することによって target domainの分布に合わせる

Page 20: ACL2011読み会: Query Weighting for Ranking Model Adaptation

転移学習文献

• [Pan+ 10]のほかに以下の文献が詳しい

• 神嶌 敏弘, "転移学習", 人工知能学会誌, vol.25, no.4, pp.572-580 (2010)

20

Page 21: ACL2011読み会: Query Weighting for Ranking Model Adaptation

前座終了

21

Page 22: ACL2011読み会: Query Weighting for Ranking Model Adaptation

本題

22

Page 23: ACL2011読み会: Query Weighting for Ranking Model Adaptation

Introduction

23

Page 24: ACL2011読み会: Query Weighting for Ranking Model Adaptation

背景

• Learning to rank のための訓練データ作成はコストが高い

• できれば,ドメイン毎に訓練データを用意するのは避けたい

• 既にあるドメインの訓練データを転用できるとうれしい

24

Page 25: ACL2011読み会: Query Weighting for Ranking Model Adaptation

目的と問題設定

• 目的

– source domainの訓練データを用いて,target domainで有効に働くランキング関数を生成する

• 問題設定

– source domain

• labeled data (評価付きデータ)

– target domain

• unlabeled data (評価なしデータ)

25

Page 26: ACL2011読み会: Query Weighting for Ranking Model Adaptation

文書単位 vs. クエリ単位

26

Page 27: ACL2011読み会: Query Weighting for Ranking Model Adaptation

Query-weighting が妥当な例

• 文書単位では類似度が高くても,クエリ単位では類似度が高くない例

27

Page 28: ACL2011読み会: Query Weighting for Ranking Model Adaptation

提案手法の概要

• 提案手法は以下の2ステップで実現

– (1) source domainのクエリの重み付け

– (2) クエリ重みを考慮したランキング学習

28

Page 29: ACL2011読み会: Query Weighting for Ranking Model Adaptation

(1) Query weighting

29

Page 30: ACL2011読み会: Query Weighting for Ranking Model Adaptation

クエリの重み付け方法

• Query weighting by

– (i) Document Feature Aggregation

– (ii) Comparing Queries across Domains

30

Page 31: ACL2011読み会: Query Weighting for Ranking Model Adaptation

(i) Document Feature Aggregation

31

Page 32: ACL2011読み会: Query Weighting for Ranking Model Adaptation

Query feature vector

• クエリに含まれる文書の特徴表現を用いてクエリの特徴表現を生成

– (1) 平均

𝜇 =1

|𝑞| 𝑓𝑖

𝑞

𝑖=1

– (2) 分散

𝜎 =1

|𝑞| 𝑓𝑖 − 𝜇

2

𝑞

𝑖=1

32

Page 33: ACL2011読み会: Query Weighting for Ranking Model Adaptation

再掲: ランキング学習の訓練データ

Training data

(𝒙11, 𝑦1

1)

… (𝒙2

1, 𝑦2

1)

(𝒙𝑛11, 𝑦𝑛1

1)

(𝒙12, 𝑦1

2)

(𝒙22, 𝑦2

2)

(𝒙𝑛22, 𝑦𝑛2

2)

(𝒙1𝑁, 𝑦1

𝑁)

(𝒙2𝑁, 𝑦2

𝑁)

(𝒙𝑛𝑁𝑁, 𝑦𝑛𝑁

𝑁)

𝑞1 𝑞2 𝑞𝑁

素性や評価はクエリ毎に与えられる

33

平均と分散

Page 34: ACL2011読み会: Query Weighting for Ranking Model Adaptation

34

Page 35: ACL2011読み会: Query Weighting for Ranking Model Adaptation

入力はsource domain, target domainの訓練データ

出力はsource domainの 各クエリに対する重み情報

35

Page 36: ACL2011読み会: Query Weighting for Ranking Model Adaptation

source domain の query feature vectorを生成

-1の事例とする

36

Page 37: ACL2011読み会: Query Weighting for Ranking Model Adaptation

target domain の query feature vectorを生成

+1の事例とする

37

Page 38: ACL2011読み会: Query Weighting for Ranking Model Adaptation

source domainとtarget domainの分類器を学習

38

Page 39: ACL2011読み会: Query Weighting for Ranking Model Adaptation

source domainの各クエリの 予測結果を確率に変換 (*1)

39

Page 40: ACL2011読み会: Query Weighting for Ranking Model Adaptation

補足: (*1) 超平面からの距離の確率的解釈

• SVMの超平面からの距離 (にシグモイド関数をかけたもの) は,事例の事後確率として解釈できまっせ (意訳) [Platt 99]

– 確率にするため,超平面からの距離にシグモイド関数を適用 (𝛼と𝛽はデータから学習)

𝑃 𝑞𝑠𝑖 ∈ 𝐷𝑡 =

1

1 + exp(𝛼 ∗ 𝐿 𝑞 𝑖𝑠 + 𝛽)

40

ロジスティック回帰と一緒

Page 41: ACL2011読み会: Query Weighting for Ranking Model Adaptation

(i) Document Feature Aggregation のまとめ

• クエリに含まれる文書の平均と分散をクエリの特徴表現とする

• source domainのクエリとtarget domainのクエリを分離するマージン分類器を学習

• source domainの各クエリを,分類器の超平面からの距離に応じて重み付けする

そんな簡単な方法でいいの? 平均と分散って情報落としすぎじゃ・・・

41

Page 42: ACL2011読み会: Query Weighting for Ranking Model Adaptation

(ii) Comparing Queries across Domains

42

Page 43: ACL2011読み会: Query Weighting for Ranking Model Adaptation

(ii) Comparing Queries across Domains

• source domainの各クエリとtarget domainの各クエリの類似度を計算

– source domainのクエリ×target domainのクエリ

43

Page 44: ACL2011読み会: Query Weighting for Ranking Model Adaptation

44

Page 45: ACL2011読み会: Query Weighting for Ranking Model Adaptation

入力はsource domain, target domainの訓練データ

出力はsource domainの 各クエリに対する重み情報

45

Page 46: ACL2011読み会: Query Weighting for Ranking Model Adaptation

source domainのクエリi の各文書を-1の事例とする

46

Page 47: ACL2011読み会: Query Weighting for Ranking Model Adaptation

target domainのクエリi の各文書を+1の事例とする

47

Page 48: ACL2011読み会: Query Weighting for Ranking Model Adaptation

source domainとtarget domainの分類器を学習

48

Page 49: ACL2011読み会: Query Weighting for Ranking Model Adaptation

クエリiに含まれる各文書の

超平面からの距離を用いて事後確率を計算

49

Page 50: ACL2011読み会: Query Weighting for Ranking Model Adaptation

それらの平均をクエリiの 重みとする

50

Page 51: ACL2011読み会: Query Weighting for Ranking Model Adaptation

(2) Ranking Model Adapation via Query Weighting

51

Page 52: ACL2011読み会: Query Weighting for Ranking Model Adaptation

RankingSVM (RSVM)

• Pairwise手法

–文書ペアで損失を設定し,二値分類問題として解く – あれ? クエリ毎に重み付けするモチベーションて,リストワイズ手法を意識して…ごほっごほっ

52 ただし,zij = sign( yi – yj )

Page 53: ACL2011読み会: Query Weighting for Ranking Model Adaptation

RSVMとヒンジ損失

• ヒンジ損失を用いて以下のように変形できる

𝑧𝑖𝑗𝑤𝑇𝒙𝑛

loss

53

Page 54: ACL2011読み会: Query Weighting for Ranking Model Adaptation

RSVM with Query Weighting

• ヒンジ損失に対してクエリ重みを適用

𝑧𝑖𝑗𝑤𝑇𝒙𝑛

loss

54

Page 55: ACL2011読み会: Query Weighting for Ranking Model Adaptation

参考: IR-SVM [Cao+ 06] 引用されてない...

• (1) ペア毎に異なる損失重みを利用 – 評価指標に影響を与えるペアの誤りに対して大きな損失を与える (ヒンジロスの傾き)

• (2) クエリ毎のペアの偏りを排除 – 多くのペアを持つクエリに対して損失を小さくする

55 𝒚𝑛𝑤

𝑇𝒙𝑛

loss

Page 56: ACL2011読み会: Query Weighting for Ranking Model Adaptation

Evaluation

56

Page 57: ACL2011読み会: Query Weighting for Ranking Model Adaptation

実験

• データセット – LETOR3.0 (複数のデータセットから成る) を利用

• ベースライン手法

– source domainのみで学習 (no-weight) – 文書単位の instance transfer 手法であるdoc-pair, doc-avg, doc-comb

[Gao+ 10]

• 実験条件 – 類似度にはDomain Separator (DS) と Kullback-Leibler divergence (KL) を利用

• 評価指標

– MAPで評価

57

Page 58: ACL2011読み会: Query Weighting for Ranking Model Adaptation

Experiment 1

58

0.2628 0.2628 0.2237 0.2237 target domain

Page 59: ACL2011読み会: Query Weighting for Ranking Model Adaptation

Experiment 2

59

0.7408 0.6675 target domain 0.7408 0.6675

Page 60: ACL2011読み会: Query Weighting for Ranking Model Adaptation

補足: LETOR3.0データセット

60 [Qin+ 10]より抜粋

Page 61: ACL2011読み会: Query Weighting for Ranking Model Adaptation

クエリ重み付け妥当性の評価

• クエリ重みと,当該クエリで学習したモデルでtarget domainをランキングした際のMAP値の順位相関

61

Page 62: ACL2011読み会: Query Weighting for Ranking Model Adaptation

Efficiency

• query-compでも,doc-pairに比べて高速

62

Page 63: ACL2011読み会: Query Weighting for Ranking Model Adaptation

Conclusion

63

Page 64: ACL2011読み会: Query Weighting for Ranking Model Adaptation

まとめ

• クエリ単位の事例転移を用いたランキング学習の枠組みを提案

– クエリ重み付け方法を2種類提案

• 文書単位で事例転移を行う既存手法に比べて高精度に学習可能

64

Page 65: ACL2011読み会: Query Weighting for Ranking Model Adaptation

参考文献

• [Wu+ 11] O. Wu, W. Hu, J. Gao, “Learning to Rank under Multiple Annotators”, IJCAI2011.

• [Pan+ 10] S. J. Pan and Q. Yang, “A Survey on Transfer Learning”, IEEE Transactions on Knowledge and Data Engineering, pp.1345-1359, Vol.22(10), 2010.

• [Platt 99] J. C. Platt, “Probabilistic outputs for support vector machines and comparisons to regularized likelihood methods”, In Advances in Large Margin Classifiers, pp.61-74, MIT Press.

• [Cao+ 06] Y. Cao, J. Xu, T.-Y. Liu, H. Li, Y. Huang, H.-W. Hon, “Adapting ranking SVM to document retrieval”, SIGIR2006.

• [Gao+ 10] W. Gao, P. Cai, K.-F. Wong, A. Zhou, “Learning to Rank Only Using Training Data from Related Domain”, SIGIR2010.

• [Qin+ 10] T. Qin, T.-Y. Liu, J. Xu, H. Li, “LETOR: A benchmark collection for research on learning to rank for information retrieval”, Information Retrieval, Vol.13(4), pp.346–374, 2010.

65