text categorization

62
Text Categorization 부부부부부 부부부부부부부 부부부 ([email protected])

Upload: miracle

Post on 16-Mar-2016

151 views

Category:

Documents


6 download

DESCRIPTION

Text Categorization. 부산대학교 인공지능연구실 김민호 ([email protected]). 내용. 문서 표현 ( Document Representation) 유사도 측정 ( Similarity Measure) 문서 클러스터링 ( Document Clustering) 문서 범주화 ( Text Categorization) 정보 필터링 ( Information Filtering) 사건 탐색 ( Topic Detection) 사건 추적 ( Topic Tracking). 비 교. - PowerPoint PPT Presentation

TRANSCRIPT

Page 1: Text Categorization

Text Categorization

부산대학교 인공지능연구실

김민호([email protected])

Page 2: Text Categorization

2

내용

문서 표현 (Document Representation)

유사도 측정 (Similarity Measure)

문서 클러스터링 (Document Clustering)

문서 범주화 (Text Categorization)

정보 필터링 (Information Filtering)

사건 탐색 (Topic Detection)

사건 추적 (Topic Tracking)

Page 3: Text Categorization

3

비 교

문서 클러스터링 vs 문서 범주화

문서 클러스터링 vs 주제 탐색

문서 범주화 vs 정보 필터링

문서 범주화 vs 주제 추적

Page 4: Text Categorization

문서 표현Document Representation

어휘 추출

어휘의 가중치 계산

Page 5: Text Categorization

5

문서 공간

다차원 공간 (multi-dimensional space) 에

문서 (document) 를 벡터 (vector) 로 표현 각 문서를 하나의 점으로 표현

각 차원 (dimension) 어휘 (term) 나 개념 (concept)

system

retrieval

information

Doc2 Doc1

Doc6 Doc5 Doc3 Doc4

query

Page 6: Text Categorization

6

문서 표현

문서의 내용을 표현해 줄 수 있도록 가공중요한 어휘들과 그것의 중요도로 표시

어휘들의 개념 / 의미적으로 표현

이 논문에서는 장식체를 위한 새로운 렌더링(rendering) 방법을 제안한다 .

More than 150 former officers of the overthrown South Vietnamese government have been released from a re-education camp after 13 years of detention, the official Vietnam News Agency reported Saturday.

Page 7: Text Categorization

7

어휘 추출

한국어형태소 해석

명사 등 중요 품사 어휘 추출 학교 / ncn + 에서 / jca -> 학교

불용어 제거 명사 등 이외의 품사를

갖는 어휘들

영어불용어 (stop word) 제거 a, the, this, …

어간화 (stemming) swimming, swims,

swimmer –> swim flowers –> flower 프로그램 소스

[IR92,pp.151~160]

William B. Frakes, Information Retrieval – Data Structures & Algorithms, Prentice-Hall, 1992.

Page 8: Text Categorization

8

어휘의 가중치 계산

문서에 포함된 각 어휘의 중요도를 측정

형태소 해석

이 논문에서는 장식체를 위한 새로운 렌더링(rendering) 방법을 제안한다 .

이 / mmd 논문 / ncn+ 에서 / jca+ 는 / jxc 장식체 / ncn+ 를 / jco 위하 / pvg+ ㄴ / etm새롭 / paa+ ㄴ / etm 렌더링 / ncn (/sl rendering/f )/sr 방법 / ncn+ 을 / jco제안 / ncpa+ 하 / xsv+ ㄴ다 / ef ./sf

논문 0.007장식체 0.047렌더링 0.041render 0.034방법 0.007제안 0.008

문 서

문서 벡터< 단어 , 가중치 >

Page 9: Text Categorization

9

가중치 계산

어휘의 중요도를 반영하는 요소어휘가 그 문서에 몇 번이나 나타났는가 ? 많이 나타날수록 문서에서의 중요도가 높다 단어 빈도수

어휘가 흔하게 사용되는 것인가 ? 전문적인 것인가 ? 전문적으로 사용되는 어휘일수록 중요도가 높다 역 문서 빈도수

문서의 길이의 길고 짧은 것 짧은 문서에 2 번 나타난 것과 긴 문서에 2 번 나타난 것을

동일하게 취급 ? 문서 길이의 정규화

Page 10: Text Categorization

10

가중치 계산 기법 (weighting scheme)

가중치 계산 요소들어휘 빈도수 (tf: term frequency)

역 문서 빈도수 (idf: inverse document frequency)

tfidf 가중치 기법t

t dfNidf 2log N : 전체 문서의 개수

dft : 어휘 t 를 포함하는 문서의 개수

ttt idftfweight

ttf 문서에 어휘 t 가 나타난 빈도수

Page 11: Text Categorization

11

SMART 가중치 계산 기법

가중치 반영 요소단어 빈도수

(term frequency)

문서 빈도수

(doc. frequency)

정규화

(normalization)

0.1ln:max

5.05.0:

:

tfltf

tfa

tfn

nNt

n

ln:

0.1:

vector iwc

n

2

1:

0.1:

nnn nnc ntn ntc ann anc atn atc lnn lnc ltn ltc

가중치 계산 기법

Page 12: Text Categorization

12

실제 구현 - 문서 표현

문서 벡터N 차원 : 전체 어휘의 개수가 N 개 표현 : < 가중치 > 문서에 나타나는 어휘 수는 적음 대부분이 0 의 값을 갖게 됨

실제 문서 벡터 표현문서에 나타난 어휘들로만 표현 표현 : < 어휘 , 가중치 >

유사도 계산을 할 때 같은 차원의 어휘인가를 비교

논문 0.007장식체 0.047렌더링 0.041render 0.034방법 0.007제안 0.008

연구 0.002 주제 0.003장식체 0.015렌더링 0.041제시 0.007

0.007000.0470.0410.0340.00700.00800

논문 연구주제

장식체 렌더링 rende

r방법 제시 제안

……

00.0020.0030.0150.041000.007000

d1 d2

d1 d2

Page 13: Text Categorization

13

실제 구현 - 문서 표현

문서 표현 과정각 문서에 대해 , 어휘의 빈도수 추출

어휘 추출 문서를 < 어휘 , 빈도수 > 벡터로 표현

전체 문서에 대해 , 각 어휘의 df 값 계산 문서에 나타났으면 +1

각 문서에 대해 , 어휘의 가중치 계산 tfidf 가중치 계산 기법으로

– 문서를 < 어휘 , 가중치 > 벡터로 표현

유사도 계산을 할 때 ,– 같은 차원의 어휘가 문서에 있는지를

빠르게 비교하기 위해 어휘들을 정렬

render0.034논문 0.007렌더링 0.041 방법 0.007장식체 0.047제안 0.008

렌더링 0.041 연구 0.002 장식체 0.015 제시 0.007주제 0.003

d1 d2

<

문서 d1 의 render 는문서 d2 의 모든 어휘와 비교하지 않고도 존재하지 않는 어휘임을 알 수 있음

Page 14: Text Categorization

14

가중치 계산 기법의 영향

정보 검색에서가중치 계산 기법을 다르게 적용 질의에 대한 문서의 유사도가 변함 검색결과 제시에서 문서의 우선순위 (rank) 가 변함

가중치 계산 기법은 정보 검색 성능에 영향 미침 가중치 기법에 따른 성능의 변화 비교 [Lee, SIGIR 95] 다양한 가중치 기법을 적용해서 검색된 결과의 조합으로

성능 향상 [Lee, SIGIR 96]

Page 15: Text Categorization

유사도 측정Similarity Measure

Page 16: Text Categorization

16

유사도 측정 방법

유사도 측정두 문서 사이의 관련 정도를 계산

유사도 측정 방법 (similarity measure)코사인 계수 (Cosine coefficient)자카드 계수 (Jaccard coefficient)다이스 계수 (Dice coefficient)유클리디언 거리 (Euclidean distance)벡터 내적 곱 (vector inner product)

Page 17: Text Categorization

17

유사도 측정 방법

코사인 계수 (Cosine coefficient) 유사도 값이 0~1 사이의 값을 가짐 1: 모든 어휘의 가중치가 동일한 문서 0: 두 문서에서 공유하는 어휘가 없는 문서

n

kjk

n

kik

jk

n

kik

ji

ww

wwddsim

1

2

1

2

1),(

inii www ,,, 21 di 벡터

jnjj www ,,, 21 dj 벡터

Page 18: Text Categorization

18

유사도 측정 방법

자카드 계수 (Jaccard coefficient)

다이스 계수 (Dice coefficient)

jk

n

kikjk

n

kik

jk

n

kik

ji

wwww

wwddsim

1

2

1

2

1),(

2

1

2

1

2),(

jk

n

kik

jk

n

kik

ji

ww

wwddsim

Page 19: Text Categorization

19

유사도 측정 방법

내적의 곱 (inner product) 정보검색에서 질의 - 문서 유사도 계산 그룹 평균 링크 기법의 클러스터링에서 이용

유클리디언 거리 (Euclidean distance) Ward 기법의 클러스터링에서 이용 거리 값이 작을수록 두 문서가 유사함

jk

n

kikji wwddsim

1

),(

2

1

)(),( jk

n

kikji wwdddist

Page 20: Text Categorization

20

유사도 측정 방법

두 단어의 유사도 측정코사인 계수

자카드 계수

다이스 계수

yx

xy

ff

fyxsim

),(

yx

xy

fff

yxsim

2

),(

xyyx

xy

ffff

yxsim

),(

Page 21: Text Categorization

21

유사도 측정 방법

유사도 측정 방법과 클러스터링클러스터링 기법에 따라 특정 유사도 측정 방법을 이용해야 하는 경우 있음 Ward 기법

– 유클리언 거리를 이용한 문서들의 거리 측정

그룹 평균 기법– 내적의 곱으로 유사도 계산

– 클러스터링에 드는 시간을 줄이기 위해서 Voorhees 제시

유사도 측정 방법에 따라 클러스터에 속하는 멤버들이 달라질 수 있음

Page 22: Text Categorization

22

유사도 측정 방법의 영향

정보검색에서유사도 측정 방법에 따라 성능의 변화 발생공기정보를 이용해서 용어간 유사도를 측정하여 정보검색에서 질의 확장 [ 김명철 , 1999]

유사도 측정 방법에 따라 성능 변화를 비교 자카드 계수 , 다이스 계수 , 코사인 계수 , 평균 조건 확률 ,

상호 정보 등

클러스터링에서유사도 측정 방법에 따라 유사도 값이 달라짐

클러스터에 속하는 멤버들이 달라질 수 있음

클러스터링 기법에 따라 특정 유사도 측정 방법을 요구하는 경우도 있음

Page 23: Text Categorization

문서 범주화Text Categorization

Page 24: Text Categorization

24

문서 범주화

문서를 두개 이상의 이미 정해진 범주로 분류하는 작업 (Lewis 1992)

문서

경제

정치

과학

?

문서분류기

Page 25: Text Categorization

25

문서 범주화

<id> 15219<title> 유동식 流動食<contents>환자 음식의 한 가지 . 흐름 음식이라고도 한다 . 유동식은음식을 삼키기 어려운 환자 , 수술 후의 환자 또는 급성 고열환자 등 영양소를 농축한 액체 음식이 필요할 때 쓰이며 ,맑은 유동식과 전 유동식이 있다 . ① 맑은 유동식 : 수술후의 환자에게 수분 공급을 위한 음식물로서 탄수화물과물로만 이루어져 짧은 기간만 이용한다 . 종류에는 보리차 ,탄산 음료 , 과즙 , 채소즙 , 기름기가 없는 맑은 국류 등이있다 . ② 전 유동식 : 소화 기능이 극히 약한 환자나 음식을삼키기 어려운 수술 후의 환자에게 주는 음식물이다 . 전유동식은 맑은 유동식과 연식의 중간으로 완전 영양을유지하기가 어려우므로 보통 1 주일 이내에 연식으로바꾸어야 한다 . 그 종류에는 우유 , 크림 , 죽 , 젤리 , 푸딩 ,달걀찜 따위가 있다 .

식품 영양식품 영양

건강과 의학건강과 의학

……

……

……

Page 26: Text Categorization

26

문서 범주화 연구

자질 추출기 (feature extractor)문서 분류의 근거가 되는 자질을 추출

문서 분류기 (text classifier)자질에 근거해서 범주를 결정

자질 추출기

문서분류기

문서

범주 할당정해진 범주

자질표현

범주 1

범주 2

범주 n

…학습문서

추출된 자질

Page 27: Text Categorization

27

자질 추출

문서분류를 위한 좋은 자질의 특성 [Lewis 1992]통계 기반 기계학습을 위해서 자질의 수가 많지 않아야 한다 적절한 빈도수로 나타나야 한다 (자료희귀 문제 ) 중복이 적어야 한다 (동의어 인식 )

이상적인 문서표현을 위해 할당될 범주와 의미적 관련이 있어야 한다 언어적 중의성이 없어야 한다

Page 28: Text Categorization

28

자질 추출

단일어 자질 [Fagan 1987] 문서는 그 안에 나타나는 단어들의 집합으로 표현될 수

있다는 가정에서 단일어를 문서의 자질로 표현

자질 추출이 간단하다

비교적 좋은 성능을 보인다

구문적 , 의미적 관계 표현이 어렵다 언어적 중의성 발생

자료희귀 문제 발생 학습문서의 수가 작을 경우 단일어에 대한 범주추정이

어렵다

Page 29: Text Categorization

29

자질 추출

구문어구 자질 [Lewis 1992] 구문분석을 통해 문법적 어구를 문서의 자질로 표현함

언어적 중의성이 적다 ‘black market’, ‘ 유령 회사’

자료희귀 문제 발생 출현 빈도수가 적어 학습이 어렵다

의미적 관계 표현이 어렵다

Page 30: Text Categorization

30

자질 추출

클러스터 자질 단어 클러스터링 [Li1997,Guthrie1994,Baker 1998] 단어의 분포에 따라 클러스터링

– kick, goal, ball 여러 클러스터에 속할 수 있는지에 따라 구분

– Hard clustering vs. Soft clustering

구문어구 클러스터링 [Lewis 1992, 장병규 1997] 구문어구 , 연어의 분포에 따라 클러스터링

자료희귀 문제를 보완

단일어에 비해 높은 성능향상을 보이지 않음

Page 31: Text Categorization

31

자질 추출

시소러스를 이용한 문서분류 [강원석 1999]

자질표현 : 의미 벡터 의미를 150 개로 분류

– 일반 의미 87 개– 영역 의미 63 개

단어 3,990 개에 대해 의미 코드 부여 용어의 의미를 찾아 의미벡터를 이용 학습문서에 의해서 범주별 의미벡터 생성

문서 - 범주 의미벡터의 유사도에 따라 범주 할당 유사도 계산 : 크로스 엔트로피

시소러스 구축이 힘들다

wordnet: http://wordnet.princeton.edu/

Page 32: Text Categorization

32

자질 차원의 크기

자질 공간은 높은 차원을 가진다문서집합에서 발견되는 하나의 유일한 용어에 대해 하나의 차원이 존재

자질의 수가 많으면보다 많은 정보를 제공한다

계산할 양이 너무 많아지므로 학습이 어려워진다

자질의 선택자질의 차원을 감소한 후 , 문서 분류기 이용

Page 33: Text Categorization

33

자질 차원의 축소

2 를 이용한 자질 순위화 [Devore 1995]두 사건의 독립성 여부를 판단하는 통계적인 방식 ‘어떤 문서가 범주에 관련이 있다’ ‘어떤 자질이 그 문서에 나타났다’

두 사건이 독립적이면 그 자질은 범주화에 영향을 미치지 않는다고 판단한다

2 값이 클수록 두 사건이 관련 있다

Page 34: Text Categorization

34

자질 차원의 축소

2 계산을 위한 분할표 만들기각 범주에 대해서 적합한 문서들

– 각 문서에 나타난 각 용어들의 a 값을 누적

부적합 문서들 – 각 문서에 나타난 각 용어들의 b 값을 누적

a+c = 해당 범주에 속하는 적합 문서의 개수 (R) a+b = 해당 용어의 문서 빈도수 값 (df) a+b+c+d = 전체 학습문서의 개수 (N)

관련있다 관련없다

나타났다 a

b

나타나지 않았다 c d

문서가 범주와

자질이

문서에

Page 35: Text Categorization

35

자질 차원의 축소

2 를 이용한 자질 순위화 [Devore 1995]분할표에 나타난 값을 이용

2 값이 가장 큰 몇 개의 자질을 실제로 이용

자질의 크기에 변화를 주었을 때 , 성능 비교 연구

2 =(a+b+c+d) (ad-bc)2

(a+c)(b+d)(a+b)(c+d)

관련있다 관련없다

나타났다 a

b

나타나지 않았다 c d

문서가 범주와

자질이

문서에

Page 36: Text Categorization

36

문서 분류기

최근접 이웃 분류기 (k-Nearest Neighbors)문서 - 범주벡터 관련도 (Linear Text Classifiers)

Rocchio 알고리즘

결정 트리 (Decision Tree) 지지벡터기계 (Support Vector Machines)베이지언 확률 (Bayesian classifier)신경망 (Neural Network classifier)수작업 분류 규칙 생성

사람이 직접 문서분류 규칙을 작성

Page 37: Text Categorization

37

최근접 이웃 분류기

K-최근접 이웃 (k-Nearest Neighbors)Memory-Based Reasoning 방식 예제 기반 학습 방법 학습문서에 있는 문서들은 범주가 이미 결정되어 있음

<d1, C1>, <d2, Ck>,<d3, C1,C2>, …

새로운 문서 d 의 범주를 결정할 때 학습 문서들 중에서 새로운 문서 d 와 유사도가 가장

높은 순서인 k 개의 문서 (k-최근접 이웃 ) 가 어떠한 범주에 속해 있는지에 기반해서 결정

최근접 이웃들이 속하는 범주로 할당

Page 38: Text Categorization

38

최근접 이웃 분류기

K-NN 분류 알고리즘 [1] 새로운 문서와 모든 학습문서와의 유사도 계산 [2] 가장 가까운 k 개의 문서를 추출 [3] k 개의 문서들이 가장 많이 갖는 범주를

새로운 문서의 범주로 결정

범주 1

범주 n

문서 d 학습문서

Page 39: Text Categorization

39

최근접 이웃 분류기

성능 변화k 의 값에 따라 성능이 달라짐 k 의 변화에 따른 비교 실험

학습문서의 개수 학습문서 수가 많을수록 분류의 정확성은 높아짐 문서 범주화를 위한 시간은 길어진다

Page 40: Text Categorization

40

문서 - 범주 벡터 관련도 기반 분류기

벡터 유사도 계산에 의한 분류각 범주에 대해 범주 벡터를 생성

문서 벡터 - 범주 벡터의 유사도 계산

가장 관련도가 높은 범주를 문서의 범주로 결정 임계치를 기준으로 해서 범주 할당

범주 1

범주 n

문서

Liner Text Classifiers

Page 41: Text Categorization

41

문서 - 범주 벡터 관련도 기반 분류기

범주 벡터 생성범주 벡터의 가중치에 영향을 받음

가중치 벡터 학습 [Lewis 1996] Rocchio algorithm Widrow-Hoff algorithm EG(Exponentiated-gradient) algorithm

정확한 임계치 선택

Page 42: Text Categorization

42

Rocchio 알고리즘

적합성 피드백에 의한 질의 생성 알고리즘 Rocchio 가 1960년대 중반에 개발 아주 성공적인 프로파일 학습 알고리즘의 하나

최적의 질의 벡터 생성 적합한 문서에 대해서는 질의 - 문서 유사도를 최대화 시킴 부적한 문서에 대해서는 질의 - 문서 유사도를 최소화 시킴

RN

D

R

DQ lDlDopt

ReRe

R: 적합한 문서들의 개수N: 전체 문서의 개수

Page 43: Text Categorization

43

Rocchio 알고리즘

벡터공간 관점에서는 , 질의 벡터를 부적합 벡터들로부터는 멀리

적합 벡터들과는 더 가깝게 이동 시킴

개선된 Rocchio 알고리즘 원래 질의의 관점을 유지하기 위해서

원래 질의 벡터를 반영

RN

D

R

DQQ lDlDorgnew

ReRe

, , 값에 따라 성능 비교

Page 44: Text Categorization

44

결정 트리 [Decision Tree] 분류기

C4.5 [Quinlan 1993] 결정 트리는 학습결과의 해독 가능하다 학습결과를 이용해 규칙생성 가능 어떤 자질이 어떤 효과를 발휘하는지 분석 용이 과잉학습을 방지하기 위해 가지치기 (pruning) 수행가능

이진 분류기 문서가 이 범주에 속하는지 / 속하지 않는지 결정

하나의 범주에 하나의 결정 트리 학습

결정 트리의 각 노드 특정 자질이 문서에 나타나는지의 여부 또는 빈도

Page 45: Text Categorization

45

결정 트리 학습 방식 예

골프를 치러갈 것인지를 결정

• 학습 문서 :

sunny, 85, 85, false, Don't Playsunny, 80, 90, true, Don't Playovercast, 83, 78, false, Playrain, 70, 96, false, Playrain, 68, 80, false, Playrain, 65, 70, true, Don't Playovercast, 64, 65, true, Playsunny, 72, 95, false, Don't Playsunny, 69, 70, false, Playrain, 75, 80, false, Playsunny, 75, 70, true, Playovercast, 72, 90, true, Playovercast, 81, 75, false, Playrain, 71, 80, true, Don't Play

• 클래스 : Play, Don't Play. • 속성과 값 outlook: sunny, overcast, rain. temperature: continuous. humidity: continuous. windy: true, false.

• Decision Tree:

outlook = overcast: Play outlook = sunny:

| humidity <= 75 : Play | humidity > 75 : Don't Play

outlook = rain:| windy = true: Don't Play | windy = false: Play

Page 46: Text Categorization

46

문서 분류 시스템 - 공개용

지지벡터기계 (Support Vector Machines) 학습문서가 나타내는 패턴에서 자동으로 지지벡터 (SV) 를 생성 ,

지지벡터를 이용하여 최적의 경계를 결정

SVMlight http://svmlight.joachims.org/ C 로 구현 , 개발팀 : University of Dortmund, Informatik, AI-Unit

Collaborative Research Center on 'Complexity Reduction in Multivariate Data' (SFB475)

svm_learn– 학습문서의 패턴을 파악하여 자동으로 지지벡터를 생성

svm_classify– 새로운 문서에 대해서 지지벡터를 이용하여 범주에

속하는지 /아닌지 +1/-1 로 결정

Page 47: Text Categorization

47

문서 분류 시스템 - 공개용

Rainbow 시스템통계적 텍스트 분류 프로그램 Naive Bayes k-nearest neighbor Rocchio Maximum Entropy

Andrew McCallum [CMU] http://www-2.cs.cmu.edu/~mccallum/bow/

rainbow/

Page 48: Text Categorization

48

한국어 – 문서 범주화 실험 집합

계몽 문서분류 실험 집합문서 개수 23,113 개 , 대분류 12 개 , 소분류 76개 0100. 철학

0200. 종교0300. 사회0400. 과학0500. 생물0600. 산업0700. 예술0800. 어학0900. 문학1000. 지리1100. 역사1200. 스포츠 .레저

0401. 과학 일반0402. 수학0403. 물리학0404. 화학0405. 천문 · 우주 과학...

0601. 산업 일반0602. 기술 · 가전 0603. 건강과 의학 ·인체 0604. 농업 0605. 조선 · 수산업0606. 임업 ·목축업 0607. 광업 0608. 공업 0609. 토목 · 건설 교통...

범주 12 범주 76

Page 49: Text Categorization

사건 탐색Topic Detection

Page 50: Text Categorization

50

TDT Evaluation ProjectTDT(Topic Detection & Tracking)

주제적으로 관련있는 문서들을 발견 , 새로운 주제를 찾아내고 , 관심있는 사건의 문서를 분류 , 방송뉴스를 분리하는 것

DARPA 지원 , TIDES(Translingual Information Detection, Extraction, and Summarization) 프로그램

TDT1 에는 3 개 연구그룹 참여 ( CMU, Umass, Dragon systems), TDT4 에는 다수의 연구그룹이 참여

매일 연속적으로 나오는 신문기사와 방송뉴스를 처리 영어와 표준 중국어

1999년에 처음 시작되어 , 2004년까지 평가 개최 http://www.nist.gov/speech/tests/tdt/tides.htm

Page 51: Text Categorization

51

TDT Evaluation Project

5 개 응용 분야 Story Segmentation - Detect changes between topically

cohesive sections Topic Tracking - Keep track of stories similar to a set of

example stories Topic Detection - Build clusters of stories that discuss

the same topic First Story Detection - Detect if a story is the first story of

a new, unknown topic Link Detection - Detect whether or not two stories are

topically linked

Page 52: Text Categorization

52

주제 (topic)

사건 (event) 의 의미에 가까움기존의 정보검색에서의 주제와는 다름

동적으로 변해가는 사건 (event) 을 의미 어떤 장소에서 , 어떤 시간에 발생한 구체적인 것

‘USAir-427 추락’ : 사건 ‘비행기 사고’ : 사건 아님

Page 53: Text Categorization

53

정보 검색 vs 사건 탐색

정보 검색사용자가 질의 (query) 를 직접 생성해야 함

어떤 새로운 일이 발생했는지를 모를 때는 질의 생성 못함 사건 탐색

새로운 사건의 발생을 탐색 , 유사한 사건을 묶어서 제시 어떤 새로운 일이 벌어졌는지 ? 예전에 발생했던 것과 유사한 일이 일어났는지 ?

사용자가 생각하지 못한 주제에 대한 사건을 알 수 있게 됨 정보 이용자들에게 기존의 정보검색과는 달리 새로운

측면에서의 정보획득을 가능하게 한다

Page 54: Text Categorization

54

사건 탐색 vs 사건 추적

사건 탐색 특정 주제를 미리 정하지 않음 학습 문서가 없음

사건 추적 특정 주제를 미리 정함 학습 문서가 있음

Page 55: Text Categorization

55

사건 탐색 vs 새로운 사건 탐색

사건 탐색문서들의 사건을 탐색하는 것

새로운 사건 탐색 문서가 새로운 사건의 시작인지 /아닌지 탐색

Page 56: Text Categorization

56

문서 클러스터링 vs 사건 탐색

임의의 클러스터 생성 , 학습문서가 필요하지 않음

문서 클러스터링전체 문서 집합에 대한 모든 유사도를 고려

사건 탐색 동적으로 변하는 사건을 탐색전체 문서 집합에 대한 모든 유사도를 고려 않음 현재까지 클러스터 생성에 참여한 문서들만 고려

점진적 클러스터링

Page 57: Text Categorization

57

사건 탐색 알고리즘

점진적 클러스터링

T1

d1

d2

d1 d2 … dN

T1 T2

T1

T1

T1

문서와 클러스터 유사도가임계치 이상인 경우

문서와 클러스터 유사도가임계치 이하인 경우

첫번째 문서로 하나의 클러스터 형성

Page 58: Text Categorization

58

사건 탐색 알고리즘

클러스터 멤버로 포함시킬 기준 선택 임계치 (threshold) 이상인 클러스터들에 대해 모든 클러스터의 멤버로 결정 ? 가장 높은 유사도를 갖는 클러스터의 멤버로 결정 ?

…T1 T2 T3 Tm…

di

…T1 T2 T3 Tm…

di

모든 클러스터 가장 높은 유사도를 갖는 클러스터

Page 59: Text Categorization

59

점진적 클러스터링 알고리즘

입력 순서 : d1, d2, …, dN

첫번째 문서로 첫 클러스터를 형성 (d1 T1)입력 문서 2~N 까지 문서에 대해서 (d2, …, dN)

이미 형성된 각 클러스터에 대해서 (T1, T2, … Tk)클러스터 벡터와 현재 문서 벡터의 유사도 계산 임계치 이하이면 , 새로운 클러스터 생성

– 현재 문서 하나로 된 새로운 클러스터 Tk+1 생성

임계치 이상이면 , 기존의 클러스터에 포함시킴– 가장 유사도가 높은 클러스터의 멤버로 포함– 또는 , 모든 클러스터의 멤버로 포함

새로 생성 / 변경된 클러스터의 중심 벡터를 생성 / 변경

Page 60: Text Categorization

결 론

Page 61: Text Categorization

61

비 교

문서 클러스터링 vs 문서 범주화문서 클러스터링 : 임의의 클러스터를 생성함

문서 범주화 : 범주를 미리 결정 , 학습문서 필요

문서 클러스터링 vs 사건 탐색임의의 클러스터 생성

사건 탐색은 동적으로 변하는 사건을 탐색

사건 탐색은 점진적 클러스터링

문서 클리스터링 : 전체 문서집합의 유사도를 고려

Page 62: Text Categorization

62

비 교

문서 범주화 vs 정보 필터링범주 또는 사용자 관심 미리 결정 (학습문서 필요 )

정보 필터링 : 사용자의 프로파일이 범주가 됨

문서 범주화 vs 사건 추적범주 또는 사건을 미리 정해둠 (학습문서 필요 )

사건 추적은 동적으로 변하는 사건을 추적