
한국전자통신연구원(ETRI)이 가상현실(VR)과 증강현실(AR)을 접목한 몰입형 XR(확장현실) 기술을 개발했다.
이번에 개발에 적용된 주요 기술은 ‘다중·이형센서기반 상황적응형 인터랙션 프레임워크’, ‘다인칭 사용자 3차원 정밀 동작 분석 기술’, ‘복합공간상 사용자 위치 추정 기술’, ‘개인 모바일 디바이스 인터랙션 증강’ 등 이다.
몰입형 XR의 핵심 기술은 다인칭 사용자 3차원 정밀 동작분석과 복합공간상 사용자 위치추정 기술이다.
다인칭 사용자 3차원 정밀 동작분석 기술은 모바일 환경에서 딥러닝 기술로 2차원 영상 데이터 기반 사용자의 3차원 관절 위치정보를 추론하는 방식이다.
기존 방법이 고가의 그래픽처리장치(GPU) 장비가 탑재된 시스템 자원을 요구하지만, 이 기술은 사용자의 스마트폰으로 3차원 자세정보를 효율적으로 추출할 수 있다는 장점이 있다.
아울러 복합공간 사용자 위치추정 기술은 증강현실 콘텐츠를 현실 세계에 자연스럽게 융합해 스마트폰 카메라로 영상의 특징점을 추출하고, 이를 기반으로 3차원 포인트 클라우드를 생성 및 보정으로 환경 맵을 구축해 사용자 디바이스 위치를 정밀 추정할 수 있다.
이 기술은 사용자가 AR 환경에서 몰입감을 극대화할 수 있도록 설계, 가상·증강 환경에서 사용자 환경과 행동을 정밀 해석해 다수 사용자에게 별도 제약없이 동일한 품질의 인터랙션 제공한다.
아울러 스마트폰을 활용해 몰입감을 극대화할 수 있도록 설계해 증강현실에 맞춰 가상현실 공간을 만들어 로컬 및 원격에서 다수 사용자가 생생한 XR 체험이 가능토록 시범 콘텐츠를 제작했다.
증강현실 속에서 범용 스마트폰을 활용한 헤드마운티드 디스플레이(HMD)를 착용한 두 명의 로컬 사용자는 각각 여우와 어린왕자의 역할을 하고, 가상현실에서 HMD를 착용한 또 다른 원격사용자는 허수아비 캐릭터 역할을 해 다수 인원이 원격몰입 확장현실을 시연했다.
또 연구진은 증강현실을 통해 실제 공간과 가상의 공간을 연동해 두 개의 공간을 공유하며 사용자의 제스처 인식까지 가상의 캐릭터에 반영하는 데 성공했다.
이 기술은 노원기차마을 스키장 디오라마, 국립중앙도서관의 자산어보 등을 현장에서 체험할 수 있는 시범서비스에 적용됐고, 2023년 9월 독일 IFA에서 다중참여 원격몰입 XR 전시를 통해 뛰어난 기술력과 혁신적인 콘텐츠로 많은 관심을 모았다.

정성욱 ETRI 콘텐츠융합연구실 책임연구원은 “과학기술정보통신부에서 강조하는 R&D 결과물의 조기 사업화를 위해 테마파크 및 국립박물관 등에서 실·가상 환경을 융합한 직관적 인터랙션을 제공, 몰입형 콘텐츠를 선보일 수 있도록 적극 지원할 것”이라고 설명했다.
한편, 이번 연구는 과기정통부 지원을 받아 KAIST, ㈜제이투와이소프트, ㈜토즈와 공동연구를 수행했고, SCI 논문 4.5편, 국내·외 특허출원 17건, 기술이전 3건 등 성과를 거뒀다.