research works of jonghoon seo

49
서종훈 [email protected] Research Works

Upload: jonghoon-seo

Post on 22-Jan-2018

517 views

Category:

Technology


2 download

TRANSCRIPT

서종 훈[email protected]

Research Works

2

목차

• 연구실 소개

• 개인 연구분야 소개

• 수행 연구 소개

3

연구실 소개

4

개인 연구 분야 소개

5

개인 연구 분야 소개

SmartSpace

1. NUITechnologies

과학재단 (2007~2008)

LG전자 미래기술연구소 (2013)

한국연구재단 (2012~2015)

2. InteractionFrameworks

3. UXDesign

서울시정개발연구원 (2008~2009)

한국연구재단 (2012~2015)

과학재단 (2007~2008)

AKO 엔터테인먼트 (2010~2012)

삼성 SDS (2011~2012)

삼성전자 DMC (2012)

KIST (2013~2015)

6

수행 연구 과제NUI Technologies

Image-based Codes

• 연구원, 2006-2007, 과학재단 특정기초 연구,

“차세대 PC환경지원을 위한 영상인식 및표현 기술에 대한 연구”

• Team Leader, 2008, 삼성전자 종합기술원,

“Perceptive Display 상에서의 Object Recognition을위한 Visual/IR Tag 기술 연구”

Augmented Reality

• PL, 2009-2010, (주) 아코엔터테인먼트,

“증강현실 및 멀티터치 요소기술개발”

• Team Leader, 2011, 삼성전자 DMC 연구소,

“비전 기능의 CPU/GPU 혼합 가속 기법 연구 및검증”

• PL, 2013-2015, KIST

“시각기반 지도 인식 모듈 개발”

Hand Gesture Interface

• PL, 2011, 삼성SDS,

“고성능 Vision 기반 Motion 인식 기술”

Interaction Framework

• 연구원, 2008-2009, 서울시정개발연구원 산학연 협력사업,

“모바일 컴퓨팅 기반 상황 인지 서비스 프레임워크”

• PL, 2012-2015, 연구재단 중견연구자지원사업

“Smart space 공간 제어를 위한 Natural User Interface 기술 연구”

UX Design

• 연구원, 2013, LG전자 전자기술원,

“360 프로젝션 및인터렉션 기술 개발”

• 연구원, 2007, LG전자 DTV 기술 연구소

“차세대 스마트 홈 환경을 위한 DTV 기반 사용자 인터페이스 설계”

• 연구원, 2005, LG전자-연세대학교 CDMA 뉴프론티어 멤버쉽,

“모션 벡터를 사용한 모바일 스크린 콘트롤 인터페이스”

총 12건, 1,511,392,000원 | 프로젝트/팀관리 7건, 721,792,000

7

NUI TechnologiesInteract ion FrameworksUX Design

1. Image-based Codes

2. Augmented Reality

3. Hand Gesture Interaction

8

NUI Technologies

Image-based Codes

QR 코드와 유사한 형태의 카메라 기반의 바코드 인식 기술인식에 강인한 코드 설계 및 에러 보정 기술 개발다양한 조명 및 환경에서 인식 가능하도록 영상 향상 기술 개발비가시 도료 기반의 태그 인식 기술 개발

Augmented Reality

현실 세계에 디지털 정보를 Seamless하게 제공하는 기술마커 기반 증강현실 엔진 개발 및 교육 필드에 상용화비마커 기반 증강현실 엔진 개발 및 모바일 가속화 기술 개발프로젝터 기반의 Spatial AR 기술 개발

Hand Gesture Interface

손 인식을 통한 사용자 중심의 상호작용 기술컬러-깊이 영상을 혼용한 강인한 손 분리 기술 개발손 인식 및 이를 통한 제스처 상호작용 기술 개발다양한 포즈의 손 인식 및 상호작용 기술 개발

9

▶ 정철호, 서종훈, 한탁돈, "추적조건분석에의한개선된외곽선추적기법들," 한국정보과학회 2006년 추계학술대회, vol. 33, No. 2(B), pp.431 - 436, 한국정보과학회, Oct. 2006.▶ Dong-Chul Kim, Jong-Hoon Seo, Cheolho Cheong, Tack-Don Han, "Tag Interface for Pervasive Computing," Signal Processing and Multimedia, pp. 356-359, 2006.▶ Jonghoon Seo, Ji Hye Choi and Tack-don Han, “Image based Codes Performance Comparison for Mobile Environments”, Proceedings of the 14th International Conference on Human-Computer Interaction, Vol. 6761/2011, pp. 653-659, July 2011.▶ 국내특허, 출원 10-2009-0099284, 서종훈, 한탁돈, 김동철, 신해준, 윤형민, 최창규, “바코드인식장치및방법”, 2009.10.19.▶ 국내특허, 출원 10-2009-0084289, 한탁돈, 윤준영, 신해준, 김동철, 서종훈, 등 “퍼셉티브디스플레이장치와휴대용단말기간의상호작용을위한장치및방법”, 2009.09.08.

SKTelecom Lotte Members IBK KOLON Sport

Pictorial Image Code

• 색상을 사용하는 새로운 형태의 2D 바코드

• 1999년미디어시스템연구실에서 개발

• 2004년 ColorZip Media로 Spin-off

• 색상 정보를 이용하여 데이터 저장

• 다양한조명에서인식가능한 색상분리기법연구

• 조명및환경변화에강인한 코드검출기법연구

• 개선된 Contour Tracing 기법 개발

연구원, 2006-2007, 과학재단 특정기초 연구,

“차세대 PC환경지원을 위한 영상인식 및표현 기술에 대한 연구”

Team Leader, 2008, 삼성전자 종합기술원,

“Perceptive Display 상에서의 Object Recognition을위한 Visual/IR Tag 기술 연구”

• Invisible IR Ink 특성조사

• Invisible IR 환경에강인한 Tag 구조설계

•영상향상을통한근적외선영역에서의마커인식기술개발

– 노이즈 제거 기술 개발

– 개선된 이진화 방법 개발

– 히스토그램 기반 영상 향상 기법 개발

<IR Invisible Code>

Image-based Code

10

Augmented RealityMarker-based AR

▶ Jonghoon Seo, Jinwook Shim, Ji Hye Choi, James Park and Tack-don Han, “Enhancing Marker-based AR Technology”, Proceedings of the 14th International Conference on Human-Computer Interaction, Vol. 6773/2011, pp. 97-104, July 2011.▶ Jinwook Shim, Jonghoon Seo and Tack-Don Han, “MSL_AR toolkit: AR Authoring tool with Interactive features”, Proceedings of the 14th International Conference on Human-Computer Interaction, Vol. 6773/2011, pp. 105-112, July 2011.▶ Jinwook Shim, Minje Kong, Yoonsik Yang, Jonghoon Seo, Tack-Don Han, “Interactive features based augmented reality authoring tool”, ICCE(International Conference on Consumer Electronics) 2014, pp. 47-50, Jan. 2014.▶ 심진욱, 공민제, 김하영, 채승호, 정경호, 서종훈, 한탁돈, “마커 및 제스처 상호작용이 가능한 증강현실 저작도구”, 멀티미디어학회논문지, 제16권, No. 6, pp. 720-734, 2013년. (Link)▶ 손원성, 한재협, 최진용, 서종훈, 최윤철, 한탁돈, 임순범, “차세대 디지털교과서를 위한 기반기술 및 적용에 관한 연구”, 정보교육학회논문지, 제14권, No. 2, pp. 165-174, 2010년 6월. (Link)▶ 서종훈, 한탁돈, “증강현실에서의 마커 시스템 비교”, 2010년 멀티미디어학회 춘계학술대회, 2010년 5월.▶ 서종훈, 한탁돈, "간단한 증강현실 환경을 위한 사용자 작성 마커", 2010년도 한국컴퓨터정보학회 동계학술대회 논문집 제18권 1호, p277-279, 2010년 1월 21일▶ 국내특허, 출원번호 10-2011-0081456, 한탁돈, 서종훈, 최지혜, 박제희, 심진욱, “마커를 기반으로 하는 증강현실 시스템 및 그 객체 증강방법”, 2011.08.17.▶ 국내특허, 출원번호 10-2011-0077703, 한탁돈, 서종훈, 최지혜, 박제희, 심진욱, “포즈 예측 방법과 장치 그리고 증강 현실 시스템”, 2011.08.04.

• 2D 바코드인 ColorCode와 증강현실을 접목하는 기술 연구

• 색상을 사용하므로 셀의 크기가 상대적으로 크기 때문에 기존 2D 바코드에 비하여 뛰어난 트레킹 제공• Pictorial Image Code를 통한 심미성 강조

장점 단점

2D 바코드 충분한 ID 개수• ColorCode: 43억개• QRCode: 1만개~

제한된 트레킹 품질• 정면, 근접 인식에 타겟

AR 마커 뛰어난 트래킹 품질• 거리, 각도 변화에 강인

부족한 ID 개수• ARToolKit: ~100개• ARTag: 2,002개• ARToolKit+: 4,096개

• PL, 2009-2010, (주) 아코엔터테인먼트, “증강현실 및 멀티터치 요소기술개발”• 콘텐츠 개발 업체인 ㈜ 아코엔터테인먼트의 증강현실 사업을 위한 마커 기반 증강현실 툴킷 개발• 교육, 전시, 마케팅 등으로 사업화 됨

ColorCodeAR

교육용 AR

11

▶ Heeseung Choi, Jonghoon Seo, Seungho Chae, Yoonsik Yang, Ig-Jae Kim, “Real-time tour map recognition and tracking for mobile tour guide systems”, KJMR(Korea-Japan Workshop on Mixed Reality) 2014.▶ Jonghoon Seo, Seungho Chae, Yoonsik Yang, Heeseung Choi, and Tack-Don Han, “A Novel Filtering Approach for Robust and Fast Keypoint Matching in Mobile Environment”, Submitted to Sensors, 2015

Augmented RealityMarker-less AR

GP-GPU 기반마커리스 증강현실가속화 연구

• Team Leader, 2011, 삼성전자 DMC 연구소, “비전 기능의 CPU/GPU 혼합 가속 기법 연구 및 검증”

• CPU와 GPU를 혼용하여 마커리스 증강현실 가속화 기술 연구

• 삼성 Galaxy S에서 GLSL을 이용한 GP-GPU 프로그래밍

최종목표 진행사항

환경 Tracking 성능 환경 Tracking 성능

알고리즘 개발 팀 QVGA8개 DB

6개 동시추적

10 FPS(모바일 환경에서 가속 이전)

Intel Q-8600 2.4Ghz, 4GB RAM,

QVGA29~31 FPS

모바일 최적화 팀15 FPS

(모바일 환경에서 가속화 적용 후)Galaxy S2 16~17 FPS

모바일지도 인식을 위한증강현실 엔진개발• Project Leader, 2013-2014, KIST 영상미디어연구센터, “시각기반 지도 인식 모듈 개발”

• 16개 지도 DB 인식 및 추적 기술 개발

• 특징점 필터링 기반 가속 기술 개발

• Reference 영상의 학습 시에 특징점들을 평가하여 좋은 특징점만을 학습함으로써 속도를 증가시키면서도

인식율 향상

• 3가지 조건 제안

• 재현 가능 특징점 (Repeatability)

• 동 특징점 근사 매칭 (Similarity)

• 타 특징점 비 매칭 (Separability)

상세설명

K_50 K_100 K_300 K_500K_all

(conventional)

Time(ms) 23.36 27.23 45.16 63.04 196.59

Speed (fps) 42.80 36.73 22.14 15.86 5.09

Precision 60.3 62.4 58.1 55.0 50.2

상세설명

12

Augmented Reality

• Smart Space 구현을위한 Steerable Projection 기술개발

- Team Member, 2013, LG CTO 미래융합IT연구소, “360 프로젝션및인터랙션기술개발”

- Pan-Tilt 에 따른 프로젝션 정규화 기술 개발

Pervasive AR

Dongchul Kim, Jonghoon Seo, Seungho Chea, Jinwook Shim and Tack-Don Han, “Real-time Plane Detection and Selection in an Unknown Environment for Projector-Camera Augmented Reality”, Submitted to Sensors, 2015.

13

Hand Gesture Interface

예상 Application Prototype

– Large-amount Data Browsing

– Photo Stream Navigation (참고. Cooliris 등)

– Web Browsing

– Medical Chart Navigation

PL , 2011~2012, 삼성SDS, “고성능 Vision 기반 Motion 인식기술”

과제목표

• 깊이인식카메라환경에서 GPU를활용한손인식및추적기술연구

– 조명 및 배경 변화에 강인한 피부 색상 모델 기반 손 검출 기법 개발 및 GPU 가속화 연구

– 깊이 인식 카메라 환경에서 색상 정보를 혼용한 검출 기법 개발

– 연속된 프레임에서 손을 추적하는 기법 개발 및 GPU 가속화 연구

• 손추적 Application 검증 Prototype 개발

– 손 추적을 활용하는 Interaction Application 제안

– 개발된 알고리즘 적용하여 Application 검증

제안알고리즘상세설명

14

Hand Gesture Interface

손동작인식기술- Kinect (Depth + Color) 환경- 0.8~2m 인식 가능- 2 개의 Posture(일반 / 선택), - 인식 인원 제한 없음

제스처인식기술- 4개의 제스처 인식 (좌/우/시계/반시계) 지원- 이를 통한 프레젠테이션 시연 Application 개발

스마트환경제어기술- 포인팅 제스처: 제어 기기 선택- 손바닥 포인팅: 기기 제어- 연구재단 중견연구자지원 (2012.05.~2015.04)

15

NUI TechnologiesInteract ion FrameworksUX Design

1. Context-aware Middleware

2. OpenNUI Framework

16

Context-aware Middleware

CommunicationLayer

Context DiscoveryRequest

Context DiscoveryReply

Context TransferRequest

Context TransferReply

InterfaceLayer

Service #2

Service #1

Service #3

Service #N

Core Layer

Context DiscoveryContext Transfer /

Receiver

Service Consumer

Repository

TaskManager

Database Manager

Service Consumer Controller

Log Manager

Service ListManager

XML Message Parser Service Manager

Location Detection Manager

Service API

Context DiscoveryRequest

Context DiscoveryReply

Context TransferRequest

Context TransferReply

Context Provider

Context DiscoveryContext Transmitter

Register

Scheduler

Context Provider Controller

Sensor IDMessage ParserSensor Manager

Context DB

Context DatabaseManager

Log ManagerSensor #3

Sensor #N

Sensor #2

Sensor #1

서비스 API를통한상황정보요청

Discovery 프로토콜로주변의 Context Provider 검

색Context Provider로부터상황정

보수집– Service Consumer(SC)

• 각 서비스가 필요한 상황정보를 API를 통해 요구하면 CP로부터 제공받아 상황정보 전달

– Context Provider(CP)

• 센서를 통하여 상황정보 수집 및관리하며 요청 시 SC로 상황정보 제공

– SC와 CP를구분함으로써 상황정보 관리 단과 서비스 제공 단을 구분하여서비스및상황정보양단의확장을용이하게 함.

연구원, 2008-2009, 서울시정개발연구원 산학연 협력사업,

“모바일 컴퓨팅 기반 상황 인지 서비스 프레임워크”

17

OpenNUI Platform

OpenNUIPlatform

DeviceLayer

Kinect

Leap Motion

Phone/Pad

Myo

Wiimote

Brain Sensor

Home Appliances

Space Controller

etc

Other Sensors

InteractionLayer

InputLayer

Body Motion

Hand Gesture

Touch

Voice

FaceTracking

etc

OutputLayer

Device Control

Markerless AR

Mobile Display

HMD AR

Sound

etc

InterconnectionLayer

SupportLayer

OpenCV

PCL

Kinect SDK

OpenNI

Arduino

OpenGL

CUDA

OpenCL

etc

ApplicationLayer

Smart Home Smart ClassSmart Office Smart Car

UI AbstractionInterface Management

18

NUI TechnologiesInteract ion FrameworksUX Design

1. NUI based Interaction Design

2. Smart Contents Sharing

19

UX Design

NUI-based Interaction Design

증강현실이나 손동작 인터페이스를 활용하여 새로운 상호작용 기기를 제안이러한 기기를 이용한 새로운 상호작용 방식 제안이를 활용하여 기존의 디자인, 교육, 건축 등의 다양한 환경에서의 문제 해결

Smart Contents Sharing

기기 간의 컨텐츠를 편리하게 주고받을 수 있도록 하기 위한 상호작용 기술 개발스마트 기기 간, 멀티 디스플레이, 퍼베이시브 디스플레이 등 다양한 디바이스 환경에서의 적합한 상호작용 기술 개발

20

NUI-based Interaction Design: for Creative Designer

▶ Hark-Joon Kim, Hayoung Kim, Seungho Chae, Jonghoon Seo, Tack-Don Han, “AR pen and hand gestures: a new tool for pen drawings”, CHI Extended Abstracts 2013: 943-948.▶ Hark-Joon Kim, Jonghoon Seo, Hayoung Kim, Seoungho Chae, Tack-Don Han, “AugGesture Pen: Using non-dominant hand gestures for augmenting pen-based tasks”, DIS(Designing Interactive Systems) 2012, 2012, ▶ Jeongyun Kim, Jonghoon Seo, Tack-Don Han, “AR Lamp: interactions on projection-based augmented reality for interactive learning”, IUI(Intelligent User Interfaces) 2014, pp. 353-358.▶ 김학준, 채승호, 서종훈, 김하영, 한탁돈, “증강현실인터페이스를위한실시간손인식방법”, 2013년 한국 HCI 학술대회, pp. 837-839, 2013년 1월. (Link)

• Projection 펜 인터페이스를이용한디자인보조기술개발

- 소형 프로젝터를 이용하여 Projection 펜 인터페이스 개발

- 손동작 인식을 이용하여 정의된 몇 가지 시나리오 제공

NUI-based Interaction Design

21

▶ Jonghoon Seo, Seungho Chae, James Park, Dongchul Kim, Jinwook Shim, and Tack-Don Han, “Enhanced Port3DAr: Combining 3D Interactive Smart Space and Mobile Computing for Construction Collaboration”, Journal of Information Science and Engineering, (to be appeared)

•휴대용프로젝터기술을이용한 Smart 건축시공인터페이스개발

- 건축 시공 현장에서 건축 도면의 정보에 쉽게 접근하고, 이를 현장에서 즉시 수정하거나 정보 질의

- Portable Dual Screen 생성 기술 개발

- Multi-Modal Interaction

- 간단한 BIM(Building Information Management) 기술 적용

- 프로젝션 기반의 Shared Workspace와 모바일 기기를 이용한 Personal Workspace 제공 및 정보 동기화 기술 개발

NUI-based Interaction Design: for Smart Construction

NUI-based Interaction Design

22

NUI-based Interaction Design

▶ 김동철, 서종훈, 한탁돈, “Motion Vector를 이용한 모바일 스크린 콘트롤 인터페이스", 2005 LG전자-연세대학교 CDMA 뉴프론티어 멤버쉽, 2005.

•모션 벡터를 사용한 모바일 스크린 콘트롤 인터페이스 개발

- 연구원, 2005, LG전자-연세대학교 CDMA 뉴프론티어 멤버쉽

- 모바일 기기의 작은 화면을 극복하기 위한 연구

- 후방 카메라를 이용하여 손의 움직임을 계산하고 이를 화면 이동에 반영

- 영상 분석을 통한 손의 이동 추정 기법 개발

- 특징점 추출(Extraction) 및 추적(Tracking) 기법 연구

- Motion Vector 추출 기법 연구

NUI-based Interaction Design

웨어러블 기기에서의 제스처 인식 기반 문자 입력 방법

•웨어러블 기기에서의 제스처 인식 기반 문자 입력방법

- 현재 진행 중 프로젝트

- 갤럭시 기어와 같은 손목 착용형 웨어러블 기기에서의 문자 입력 기술 개발

- 가상의 키보드가 증강되었다고 가정하고, 착용된 웨어러블 기기의 센서 정보를 이용하여가상 키보드에서의 손의 움직임을 계산하고 이를 문자 선택에 반영

- 센서 인식을 통한 손의 이동 추정 기법 개발

- 센서 퓨전 기법 연구

- 단어 모델 기반의 센서 데이터 정제 기술 연구

23

Smart Contents SharingFeature

• 가족과 여행하면서 찍은 사진을 공유하려는데, SNS, Cloud, Talk 등 다양한 커뮤니케이션 수단이 있으나 매우 불편함. (4 터치 이상 소요)

• Smart Space 환경에서의 심플한 콘텐츠 공유 상호작용 기법 개발

• 노크, Drag, Flick 등 다양한 상호작용 기법을 이용한 직관적이로 편리한 상호작용 기법 개발

• 심플하게 한쪽 디바이스에서 다른 쪽 디바이스로 파일을 공유 할 수 있음.

• 다양한 기기 기반의 상호작용 방법 개발DragShare

Just drag & drop

KnockingShare

FlickShare

Distinguish multiple devices

Up flicking :Send contents

Down flicking :Get contents

Interact with simple flicking

24

Merits

25

Merits

Creativity

사용자 중심의 기술 이해를 바탕으로 UX, NUI 분야의 다양한 기술 개발증강현실, 모션인식 등의 요소기술 개발에서부터 이를 응용한 UX 설계까지 경험

Experienced

7년간 총 12건 17억여원의 연구과제 수행 경력이 중 7건 7억여원의 연구과제에서 과제 생성부터 진행 및 종결까지 관리 경험

Insightful

새로운 기술 트렌드 예측과 사업 기회 창출 등에 대한 탁월한 정리 능력을 인정받아 모션인식 및 웨어러블 컴퓨팅 관련 주제로 7건의 외부 세미나 경험삼성SDS, ETRI 등의 사내 세미나 뿐만 아니라, K모바일, 한국미래기술교육연구원 등의 상업 세미나에서의 발표 경험

26

감사합니다 .

@jonghoonseo

https://github.com/jonghoonseo

http://linkedin.com/in/jonghoonseo

27

Supplements

28

증강현실모바일가속화연구 (2011~2012, 삼성DMC과제)증강현실모바일가속화연구

1. Tracking 구조 개선 방법 개발 : n-Detection Thread, 1-Tracking Thread

2. Matching 방법 개선 : LSH 기반 approximated matching 적용

29

Tracking 구조 개선n-Detection Thread, 1-Tracking Thread

• Tracking Thread의 통합으로 인한 속도 증가 효과

• 조건에 따른 선택적인 수행이 아니라 모든 Thread가 연속적으로 수행됨

T0 T1TrackingThread

T2 T3 T4 T5 T6

DetectionThread 1 D1

D0DetectionThread n D1

ImageFrame

D0

DetectionResult

증강현실모바일 가속화연구 (2011~2012, 삼성DMC과제)

30

TrackingThread

Tracking 구조 개선

TrackingThread

Detection Thread 1

Detection Thread 2

Detection Thread N…Detection

Thread 3

1. Update Image-coord. Points to track

Detection Result

Previous Tracked Result

Ø …

𝑇𝑡𝑘 = 𝐷𝑡𝑘 (𝐷𝑡𝑘 𝑖𝑠 𝑒𝑥𝑖𝑠𝑡)

𝑇𝑡−1𝑘

𝑇𝑡−11

𝐷𝑡2 𝐷𝑡

𝑁

𝑇𝑡−1𝑁𝑇𝑡

1 𝑇𝑡2 𝑇𝑡

3 𝑇𝑡𝑁

Ø

n-Detection Thread, 1-Tracking Thread

증강현실모바일 가속화연구 (2011~2012, 삼성DMC과제)

31

TrackingThread

Tracking 구조 개선

TrackingThread

2. Merge each point vector into one integrated point vector

…Ø

𝑇𝑡 =

𝑘

𝑇𝑡𝑘

𝑇𝑡1 𝑇𝑡

𝑁𝑇𝑡2 𝑇𝑡𝑇𝑡

3

n-Detection Thread, 1-Tracking Thread

증강현실모바일 가속화연구 (2011~2012, 삼성DMC과제)

32

TrackingThread

Tracking 구조 개선

TrackingThread

3. Track points given consequent images 𝑇𝑡+1 = 𝑡𝑟𝑎𝑐𝑘𝑖𝑛𝑔(𝑇𝑡)

𝑇𝑡 𝑇𝑡+1

n-Detection Thread, 1-Tracking Thread

증강현실모바일 가속화연구 (2011~2012, 삼성DMC과제)

33

TrackingThread

Tracking 구조 개선

TrackingThread

4. Split into points vector for each database w.r.t error vector

…Ø

𝑇𝑡+11 𝑇𝑡+1

𝑁𝑇𝑡+12 𝑇𝑡+1𝑇𝑡+1

3

𝑇𝑡+11 , 𝑇𝑡+1

2 , … , 𝑇𝑡+1𝑁 = 𝑠𝑝𝑙𝑖𝑡(𝑇𝑡+1)

n-Detection Thread, 1-Tracking Thread

증강현실모바일 가속화연구 (2011~2012, 삼성DMC과제)

34

Tracking 구조 개선

T0 T1

TrackingThread T2 T3 T4 T5 T6

DetectionThread 1 D1

D0DetectionThread n D1

ImageFrame

D0

DetectionResult 𝑇𝑡

𝑘 = 𝐷𝑡𝑘 (𝐷𝑡𝑘 𝑖𝑠 𝑒𝑥𝑖𝑠𝑡)

𝑇𝑡−1𝑘

T

n-Detection Thread, 1-Tracking Thread

• Problem

• Detection ~ Tracking Thread 간이격문제

증강현실모바일 가속화연구 (2011~2012, 삼성DMC과제)

35

Tracking 구조 개선

Detection Thread

영상 입력

Keypoint 검출

Tracking Thread

Descriptor 생성

Training DB와 비교

Keypoint 저장

검출?

Keypoint 병합

Homography 계산

3차원 추정

적절?

(개수, 오차)

증강

추적대상 KeyPoints

새로운 영상에서 Tracking

Keypoint 추적

Before(n-Detect Thread, n-Track Thread)

After(n-Detect Thread,

1-Track Thread, k-NN)

12~15 FPS 20~23 FPS

n-Detection Thread, 1-Tracking Thread

• Solution

• Detection 이 성공했을 시에 추가 Tracking 수행함으로써 이격 현상 줄임

증강현실모바일 가속화연구 (2011~2012, 삼성DMC과제)

36

LSH 기반 approximated matching 적용: Idea [Indyk98]

• L 개의 random hash 함수 g1, g2, … gL 를 이용하여 L 개의 hash table 생성

• Query feature P가 들어 왔을 때, g1(P), g2(P)… gL(P) 버킷 에서 Linear 검색

Query Point

g1

g2

g3

g4

g1(Query Point)

g2(Query Point)

g3(Query Point)

g4(Query Point)

Linear/Binary Search

Hash Projection

O(dL)Linear/Binary Search

O(C) or O(logC)

Brute-force k-NN

O(dN)

Matching 방법개선

증강현실모바일 가속화연구 (2011~2012, 삼성DMC과제)

37

Locality Sensitive Hashing vs. k-Nearest Neighbor

k-Nearest Neighbor LSH

성능 결정 요인 • Feature 개수• Feature Dimension

• Hashing Table(Function) 개수• Feature Dimension• 같은 Bucket에서 찾은 Feature 결과

성능 예측 O(dN) O(dL)

성능 향상 (FPS)1-DB, Detection 22~24 30~31

증강현실모바일 가속화연구 (2011~2012, 삼성DMC과제)

38

Result

• 8 Image DB

• 8 동시 추적

• 29-31 FPS (환경: Intel Q-8600 2.4Ghz, 4GB RAM, VGA)

Before(n-Detect Thread, 1-Track Thread,

Bruteforce)

After(n-Detect Thread,

1-Track Thread, LSH)

20~23 FPS 29~31 FPS

증강현실모바일 가속화연구 (2011~2012, 삼성DMC과제)

39

시각 인식 기반 지도 증강현실 엔진 개발 (2013~ KIST 과제)

모바일환경에서Multi DB 영상인식및추적기술개발

• 16개 지도 DB 인식 및 추적

• 특징점 필터링 기반 가속 기술 개발

• Reference 영상의 학습 시에 특징점들을 평가하여 좋은 특징점만을 학습함으로써 속도를 증

가시키면서도 인식율 향상

• 3가지 조건 제안

• 반복 검출 조건(Repeatability)

• 동일점 유사 서술 조건 (Similarity)

• 상이점 배타 서술 조건 (Separability)

시각인식기반지도 증강현실엔진개발 (2013~ KIST 과제)

Jonghoon Seo, Seungho Chae, Yoonsik Yang, Heeseung Choi, and Tack-Don Han, “A Novel Filtering Approach for Robust and Fast Keypoint Matching in Mobile Environment”, Submitted to Sensors, 2015

40

Keypoint Filtering Algorithm

학습 DB

DB 영상 1

DB 영상 2

H1

H2

검색

모든

DB

영상에대해

DB 영상획득

키포인트검출(Detection)

서술자(Descriptor) 계산

근사(Approximation) 매칭구조생성

카메라로영상획득

키포인트검출(Detection)

서술자(Descriptor) 계산

특징점매칭

포즈계산

오프라인학습

실시간매칭

이 두 단계는 독립적으로 수행됨. 따라서, 검출(detect)된 키포인트가 잘

구분(distinguish)될 것이라는 보장을할 수 없음

따라서검출된키포인트의구분도를측정하는 함수를 제안함

시각인식기반지도 증강현실엔진개발 (2013~ KIST 과제)

Jonghoon Seo, Seungho Chae, Yoonsik Yang, Heeseung Choi, and Tack-Don Han, “A Novel Filtering Approach for Robust and Fast Keypoint Matching in Mobile Environment”, Submitted to Sensors, 2015

41

1. 반복검출 조건(Repeatability): 다양한 영상 변환(블러, 회전, 크기 변화)에서도 계속적으로 특징점으로 검출이 가능하여야 함.

2. 동일점유사 서술조건(Similarity): 다양한 영상 변환에도 같은 점끼리는 매칭 거리가 짧아야 함.

3. 상이점배타 서술조건(Separability): 서로 다른 특징점 끼리는 영상 변환에도 매칭 거리가 길어야 함.

이에 따라 좋은 특징점은 아래 스코어 함수에 의하여 정의됨

키포인트 필터링 조건

Keypoint Filtering Algorithm

시각인식기반지도 증강현실엔진개발 (2013~ KIST 과제)

Jonghoon Seo, Seungho Chae, Yoonsik Yang, Heeseung Choi, and Tack-Don Han, “A Novel Filtering Approach for Robust and Fast Keypoint Matching in Mobile Environment”, Submitted to Sensors, 2015

42

• 실험 영상

• 서울 관광 지도 16장

• 크기, 회전, 블러 변환 적용한 영상 32,256장• 학습 영상: 16,128 장

• 실험 영상: 16,128 장

• 실험 설계

1. 학습 영상을 이용하여 특징점 검출𝐾𝑖 = 𝑑𝑒𝑡𝑒𝑐𝑡(𝑖𝑖)

2. 매칭 구조 계산 과정에서 좋은 특징점 스코어 함수 계산하고 내림차순 정렬

𝑠𝑖,𝑝 = 𝑔𝑓 𝑘𝑖,𝑝𝑠𝑖,𝑝′ = 𝑠𝑜𝑟𝑡(𝑠𝑖,𝑝)

3. 좋은 특징점 점수에 따라 상위 (50, 100, 300, 500)개의 특징점만 이용하여 학습 DB 구성

𝐾𝑖,𝑛 = 𝑓𝑖𝑙𝑡𝑒𝑟(𝐾𝑖 , 𝑛)𝐷𝐵𝑛 = ∪𝑖 𝐾𝑖,𝑛

4. 실험 영상과 학습 DB 간의 매칭 수행 후 매칭 성능 측정

실험 설계

Keypoint Filtering Algorithm

시각인식기반지도 증강현실엔진개발 (2013~ KIST 과제)

Jonghoon Seo, Seungho Chae, Yoonsik Yang, Heeseung Choi, and Tack-Don Han, “A Novel Filtering Approach for Robust and Fast Keypoint Matching in Mobile Environment”, Submitted to Sensors, 2015

43

필터링된특징점개수

Pro

cess

ing

Tim

e(m

s)

수행 시간 비교

K_50 K_100 K_300 K_500 K_all

Time(ms) 23.36 27.23 45.16 63.04 196.59

Speed (fps) 42.80 36.73 22.14 15.86 5.09

Ratio 841% 722% 435% 312% 100%

Keypoint Filtering Algorithm

시각인식기반지도 증강현실엔진개발 (2013~ KIST 과제)

Jonghoon Seo, Seungho Chae, Yoonsik Yang, Heeseung Choi, and Tack-Don Han, “A Novel Filtering Approach for Robust and Fast Keypoint Matching in Mobile Environment”, Submitted to Sensors, 2015

44

영상 매칭 성능

0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

Tru

e p

osi

tive

rate

False positive rate

Match ROC curve

all

500

300

100

50

DB Size

60.3%62.4%

58.1%55.0%

50.2%

0.0%

10.0%

20.0%

30.0%

40.0%

50.0%

60.0%

70.0%

K_50 K_100 K_300 K_500 ALL

PRECISION

특징점 매칭 정확도(Precision)

DB Size 50 100 300 500 All

Precision 60.3 62.4 58.1 55.0 50.2

Keypoint Filtering Algorithm

시각인식기반지도 증강현실엔진개발 (2013~ KIST 과제)

Jonghoon Seo, Seungho Chae, Yoonsik Yang, Heeseung Choi, and Tack-Don Han, “A Novel Filtering Approach for Robust and Fast Keypoint Matching in Mobile Environment”, Submitted to Sensors, 2015

45

손동작 인식 인터페이스 개발 (2011~2012 삼성SDS 과제)

Multi-user 환경을고려한손동작인식인터페이스개발

• Kinect 를 이용한 Multi-user 지원 손동작 인식 인터페이스 개발

• 강인한 손 검출을 위하여 깊이-색상 혼용한 손 검출 기법 개발

• 컬러 영상을 이용하여 복잡한 배경 영역에서도 손 후보 영역 검출

• 깊이 영상을 이용하여 조명에 강인한 손 영역 검출

손동작인식인터페이스 개발 (2011~2012 삼성SDS 과제)

46

Skin-Depth Hybrid Hand Segmentation Method

손분리기술

- 영상에서 손 후보 영역을 분리하여 손 인식 모듈로 넘기기 위한 사전 단계

- 기존 알고리즘은 조명 변화에 취약하거나 복수 사용자 인식에 한계가 존재하였음

Skin-Depth Hybrid Hand Segmentation Method

- Calculate seed point from skin image robust to clutter background

- Retrieve hand region from the depth image robust to lighting change

- Adaptively re-train skin-model with segmented hand region adjust seed point to lighting change

Hand Segmentation Result Conventional algorithm was weak to lighting change

손동작인식인터페이스 개발 (2011~2012 삼성SDS 과제)

47

Skin-Depth Hybrid Hand Segmentation Method• 피부색상-깊이영상혼용손분리기법

• 한계영역재설정

• 범람(Flood-fill) 알고리즘 적용 대상 한계 영역을 정의

• 조명 변화에도 손 영역을 복원하기 위한 영역

Refined Bound Rect.

Original Bound Rect.

손동작인식인터페이스 개발 (2011~2012 삼성SDS 과제)

48

• 실험 환경• 거리: 130cm~150cm(~800 frames)

• 조명 환경• 100 Lux ~ 800 Lux 단순/복잡한 배경, 카메라 상향

• 역광 환경

• 손 인식율을 측정

• 다수 사용자 인식 환경에 대하여 Kinect SDK와 비교

Skin-Depth Hybrid Hand Segmentation Method

B.H. Oh, et al., “Mobile User Interface Using a Robust Fingertip Detection Algorithm for Complex Lighting and Background Conditions”, 2012 International Conference on Information and Computer Networks (ICICN 2012) IPCSIT vol. 27 (2012) © (2012) IACSIT Press, Singapore.* Modified Version of Farhad Dadgostar and Abdolhossein Sarrafzadeh. 2006. An adaptive real-time skin detector based on Hue thresholding: A comparison on two motion tracking methods. Pattern Recogn. Lett. 27, 12 (September 2006), 1342-1352.** Conaire, C.O.; O'Connor, N.E.; Smeaton, A.F.; , "Detector adaptation by maximising agreement between independent data sources,"Computer Vision and Pattern Recognition, 2007. CVPR '07. IEEE Conference on , vol., no., pp.1-6, 17-22 June 2007

적응적피부색상모델 (Dadgostarand Sarrafzadeh 2006)

베이지안모델 (Conaire, O”Connor, and Smeaton 2007)

범람알고리즘만적용 범람알고리즘 + 적응적피부색상 DB

• OpenCV 2.4.1 부터 구현된 피부색상 모델 기법

• 영상 모션 영역에서 피부색상 영역을 적응적으로 학습

• CVPR 2007• IR 센서를 이용하여 자동으로 학습함

으로써 모델의 정확도를 높임

• 범람 알고리즘을 이용하여 깊이 영상과 피부색상 영상 영역 혼용

• 적응적 피부색상 학습 방법 적용 X

• 제안하는 방법의 전체 버전• 범람 알고리즘을 이용하여 깊이 영

상과 피부색상 영상 영역 혼용• 인식된 피부색상 영역을 적응적으로

학습

손동작인식인터페이스 개발 (2011~2012 삼성SDS 과제)

49

Skin-Depth Hybrid Hand Segmentation Method

단순 배경 복잡한 배경 상향조명

500 lx 700 lx 800 lx 100 lx 500 lx 400 lx

Adaptive*

(Modified ver. For OpenCV

Implementation)

97.4 %(150 / 154)

98.7 %(152 / 154)

98.0 %(151 / 154)

97.3 %(185 / 190)

91.2 %(178 / 195)

84.0 % (495 / 589)

Bayesian**97.4 %

(150 / 154)97.4 %

(150 / 154)97.4 %

(150 / 154)98.9 %

(188 / 190)89.7 %

(175 / 195)55.2%

(325 / 589)

Flood fill 단독98.7 %

(152 / 154)98.7 %

(152 / 154)98.0 %

(151 / 154)98.4 %

(187 / 190)98.9 %

(193 / 195)96.7 %

(570 / 589)

Floodfill + Adaptive

98.7 %(152 / 154)

98.7 %(152 / 154)

98.7 %(152/ 154)

98.9 %(188 / 190)

98.9 %(193 / 195)

98.6 %(582 / 589)

Detection Rate

Adaptive Bayes Floodfill단독 Floodfill + Adaptive

인식율(%) 28.2 0 71.7 89.1

역광환경

Kinect SDK 2명까지만 인식이 가능하거나잘린 사람은 인식이 불가

Multi-person Condition

Vs.

손동작인식인터페이스 개발 (2011~2012 삼성SDS 과제)