xin liu, duygu tosun, michael w. weiner, norbert schuff, for the...
TRANSCRIPT
Xin Liu, Duygu Tosun, Michael W. Weiner, Norbert Schuff, for the Alzheimer's Disease Neuroimaging Initiative
Neuroimage, December 2013,
발표자 : 김 정훈
JeongHun Kim | 2014/12/09 | # 2
목차
• Keyword
• Introduction
• Subject
• MRI Acquisition
• Pipeline
• Result
• Discussion
JeongHun Kim | 2014/12/09 | # 3
Keywords
• Alzheimer's disease
• Locally linear embedding
• Statistical learning
• Classification of AD
• MRI
JeongHun Kim | 2014/12/09 | # 4
Introduction
• Machine learning → Neuroimaging data
rapidly growing, early detection
• Training step
to reduce the high dimensionality : PCA, PLS
• In MRI data
finding a good representation of brain feature
JeongHun Kim | 2014/12/09 | # 5
Introduction
• This paper propose embedding the data into a system if linear coordinates of fewer dimension
• Global non-linear data → linear space of fewer dimensions
• 정리 :
Manifold learning(LLE)을 사용해야 함
JeongHun Kim | 2014/12/09 | # 6
Manifold learning?
Example of LLE
• Unsupervised learning• Dimension reduction
JeongHun Kim | 2014/12/09 | # 7
Manifold learning for brain?
• On the Manifold Structure of the Space of Brain Images
Samuel Gerber, Tolga Tasdizen, Sarang Joshi, Ross Whitaker, MICCAI 2009
• Manifold Modeling for Brain Population Analysis
Samuel Gerber, Tolga Tasdizen, Thomas P Fletcher, Ross Whitaker, MICCAI special issue 2009,
JeongHun Kim | 2014/12/09 | # 8
Manifold learning for brain?
• Locally Linear Diffeomorphic Metric Embedding (LLDME) for Surface-Based Anatomical Shape Modeling Xianfeng Yang, Alvina Goh, Anqi Qiu, NeuroImage 2011
JeongHun Kim | 2014/12/09 | # 9
Subjects
• ADNI (n=413)
NC : 137
s-MCI(MCInc) : 93
c-MCI(MCIc) : 97
AD : 86
The average time of MCI→AD• 19±8 months from baseline
JeongHun Kim | 2014/12/09 | # 10
MRI Acquisitions
• ADNI
• 1.5 T (T1)
• MP-RAGE
• TE/TR = 4/9ms, 8˚flip angle, 0.94x0.94x12mm
• Freesurfer version : 4.4
162 feature(94 volume + 68 thickness)
• Experienced staff
JeongHun Kim | 2014/12/09 | # 11
LOO(leave-one-out) cross validation
Supervised learning
Pipeline
Feature Data
Unsupervised learning
EN
SVM
LDA
Accuracy
Sensitivity
Specificity
ROC
162 2
EN : Matlab glmnet toolboxSVM(linear kernel), LDA : Matlab built-in functionROC Curve : pRoc package in R
MRimage
• LLE• PCA• ISOmap• MDS• HLLE• Laplasian• Diffusion map• …
• Volume+thickness• Thickness• Volume• Area• Curvature• Subcortical volume• …
Feature Extraction
• Neural network• MLP• Deep learning
• SVM(non-linear)• Decision tree• NN• …
JeongHun Kim | 2014/12/09 | # 12
Result
Fig. 1.Visualization of all 413 subjects in LLE space based on brain volume and cortical thickness. Only the first two dimensions of the LLEspace are shown for visualization purpose. Color indicates diagnosis (blue = normal control, cyan = s-MCI, yellow = c-MCI, andred = AD). Part (a) shows all four groups' subjects in the embedded space, (b) depicts the separation between s-MCI and c-MCI ingreater detail; (c) and (d) show the distribution of subject locations by group along the first and second LLE dimension, respectively.
JeongHun Kim | 2014/12/09 | # 13
Result
Fig. 2.Surface rendered illustrations of cortical thickness and z-score normalized regional volumes from four example subjects, onefrom each group. The location of each subject in LLE space is indicated by a color coded triangle in Fig. 1. For each subject,the left panel illustrates cortical thickness and the right panel illustrates normalized regional volumes. Cooler colors indicatea thinner cortex and a smaller regional volume than average; whereas warmer colors indicate a thicker cortex and a largerregional volume than average.
JeongHun Kim | 2014/12/09 | # 14
Result
• 모든 Table을보았을때 s-MCI vs c-MCI는대부분 LLE로개선됨
• a 윗첨자붙는경우는 by chance 상황이랑크게다를바가없는것을나타냄
• CN vs AD의경우에 (예외적으로) 0.53이나왔는데, SVM의 kernel을강제로 linear
kernel 을쓰다보니까그런것같음
JeongHun Kim | 2014/12/09 | # 15
Result
JeongHun Kim | 2014/12/09 | # 16
Result
• Manifold learning can be robust to sample size
test : 20%, 50% randomly down-sampling
100% 50%
EN Accuracy 0.51 0.57
AUC 0.53 0.61
EN+LLE Accuracy 0.68 0.60
AUC 0.72 0.63
• Sample size변화에도 LLE를 사용하면 Accuracy, AUC 가 좋아짐
JeongHun Kim | 2014/12/09 | # 17
Discussion
• LLE를 사용하여 몇 차원 안 되는 linear 공간상으로MRI feature의 차원을 낮출 경우
LLE는 일반적으로 classification 성능을 개선 시킴
본 논문에서 사용한 3가지의 linear classifier에서도LLE는 잘 작동하고 성능을 개선 시킴
• LLE 는 c-MCI와 s-MCI의 분류를 충분히 잘 해냄
3 type classification method 에서 LLE를 사용하지 않으면 by chance 결과보다 전부 낮음
JeongHun Kim | 2014/12/09 | # 18
Discussion
• 이런 결과를 미루어 봤을 때, 본질적으로 volume과thickness 는 non-linear feature structure 를 가진다고 할 수 있음
• linear classifier는 classification power가 떨어져서MRI feature를 직접 사용하는데 한계가 있음
• LLE는 non-linear feature를 linear 속성으로 변환 시킴
JeongHun Kim | 2014/12/09 | # 19
Discussion
• LLE는 dimension reduction 뿐만 아니라, 잠재적인non-linear 특징을 linear coordinate로 embed함
• linear embedding 은 본 가정과 일치함
임상적으로 비슷한 subject은 (feature가 global nonlinear 하더라도) brain feature 또한 유사한 분포를 가질 것이다.
• 즉 LLE는 결정적으로 structure MRI data 기반의classification 능력을 극대화함
이런 요인들 때문에 LLE > PCA, nonlinear SVM
JeongHun Kim | 2014/12/09 | # 20
Discussion
• LLE가 유일한 linear embedding 알고리즘은 아님 high-dimensional scaling (Lespinats et al., 2007)
maximum variance unfolding (Weinberger and Saul., 2004)
Isomap (Tenenbaum et al., 2000)
Laplacian eigenmaps (Belkin and Niyogi, 2001)
nonlinear PCA (Scholz et al., 2005)
• 왜 LLE 를 사용했는가? only one parameter
non-iterative solution (avoiding local minima)• Iterative solution : Neural network
Sample size에 민감하지 않음 (저자들이 증명함)
JeongHun Kim | 2014/12/09 | # 21
Discussion
• Ferrarini et al. 2009; Plant et al., 2010 의 결과는 sample 수가 적음• Koikkanlainen et al., 2011; Misra et 1l., 2009 의 결과보다는 s-MCI, c-MCI의 비
율이 균등함
• 본 논문의 방법이 다른 연구보다 더 우월하지만, sample 과 processing 방법이 다르기 때문에 직접 비교하는 것은 무리가 있음
• 다른 MRI 이미지, cognitive scores, CSF biomarkers를 쓴 경우에는 LLE 보다 결과가 더 좋은 경우가 있음 (Table 6에는 넣지 않음, Zhang and Shen, 2012; Hinrichset al, 2011; Vemuri et al, 2008; Zhang et al, 2011)
JeongHun Kim | 2014/12/09 | # 22
Discussion
• ROI(Hippocampus volume or entorhinal)를 사용한 결과와 비슷함
• 본 연구에서 Hippocampus volume 만 사용했을 경우에는 결과가 좋지 않았음
• 결과를 미루어 봤을 때 ROI method 중심으로 사용하는 것이 항상 좋지는 않음
JeongHun Kim | 2014/12/09 | # 23
Discussion
• Thickness > Thickness + Volume 경우가 있으나 이유가 명확하지 않음
Thickness 가 less global 한 성격을 가지고 있음
• 본 논문에서 제안한 방법은 LLE로 변환한 space에서의 인식을 high dimensional data에서도 동일하게인식할 수 있게 해줌
JeongHun Kim | 2014/12/09 | # 24
Discussion
• 한계점
의사의 진단의 한계• AD를 진단하는데 한계(lack)가 존재함
Quality of Freesurfer• Freesurfer was used for MRI pre-processing which involved
excluding data of sub-standard quality
Freesurfer 에서 추출되는 feature dimension이 제한되어 있음 (volume + thickness)
LLE가 가진 수식적 한계가 있음• LLE가 outlier, skewed distribution, noise에 취약함
‗ Improved LLE version(Wang et al, 2006; Yin et al, 2007)
감사합니다