본문 바로가기
IT

VPS 는 무엇이기에 Google, Niantic, Apple 이 서비스를 시작 하려 하는 것일까요?

by #$* 2022. 5. 31.
반응형

VPS라는 것에 대하여 들어 본 적이 있으실까요? 아마도 처음 들으시는 분들이 많으실 것입니다. VPS라는 것은(Visual Positioning System : 비주얼 포지셔닝 시스템)의 줄인 말입니다. 얼마 전 인기 있었던 스마트폰으로 포켓몬 게임을 하거나 증강현실로써 내가 서있는 곳의 위치라던가 유적지에서는 해당 관광 유적지의 상세한 설명을 들을 수 있는 것에 대한 포괄적인 것입니다. 이에 VPS 가 도대체 무엇이기에 Google, Niantic, Apple 이 이러한 서비스를 시작하려 하는 것일까? 알아보려고 합니다.

 

주변 건물을 통하여 나의 위치와 방향을 알려주는 VPS 기술

 

우선 Google의 서비스에서 살펴볼까요? 구글이 발표한 것은 'ARCore Geospatial API'라는 기술입니다.

어떤 것을 할 수 있는지는, 아래의 영상을 보아 주십시요. 이것은 Google I/O에 맞춰 구글에서 공개한 것입니다.

Google I/O에 공개된 'ARCore Geospatial API' 데모 앱 동영상Google I/O에 공개된 'ARCore Geospatial API' 데모 앱 동영상
Google I/O에 공개된 'ARCore Geospatial API' 데모 앱 동영상.

에이?? 뭐야?? 하나도 새롭지 않은데요??

 

이미 우리가 알고 있었고 해당 서비스가 있다는 것은 알고 있지만 실질적으로 아직은 광범위하게 서비스되고 있지 않고 있는 것이 사실입니다.

그렇습니다. 이러한 '가상공간'과 '현실'을 연결하는 기술이야말로 ARCore Geospatial API의 정체인 것입니다.

 

이러한 기술은, 원래는 Google 맵의 「라이브 뷰」 기능에 사용되고 있는 것이라고 합니다.

라이브 뷰 기능이란, Google 지도에 2019년부터 탑재되고 있는 것으로써 내가 앞으로 어느 쪽으로 걸어가면 좋을지? 실제 스마트폰의 증강현실 뷰에 화살표 등을 표시하여 주고 있는 것입니다.

 

실내 네비게이션의 예. 카메라를 사용해 풍경을 비추고, 그 특징으로부터 「자신이 어느 쪽으로 진행하면 좋을까」를 지시
실내 네비게이션의 예.[카메라를 사용해 풍경을 비추고, 그 특징으로부터 「자신이 어느 쪽으로 진행하면 좋을까」를 지시]

이 기능의 본질은 카메라에서 얻은 주위 영상에서 특징적인 부분을 추출하고 서버의 데이터베이스와 대조하여 "지금 자신이 어디에 있고 어느 쪽을 향하고 있는지"를 판단하는 것입니다.

 

그렇습니다.

영상에서 인식한다는 의미에서 「비주얼 포지셔닝 시스템」=VPS라고 불리고 있는 것입니다.

자신의 위치를 ​​아는 시스템으로서는 GPS가 있는데, GPS는 그것만이라면 몇 미터 이내의 오차가 있고, 방향도 정확히 표시되지 않아 잘 모릅니다. Google의 경우에서도, 5~60 cm 정도 오차가 있습니다.

 

이번 API 공개는 Google 지도에서 다수의 지점 정보가 모아 졌기 때문에 그것을 살려서 앱의 제작자가 자유롭게 AR 앱을 만들 수 있도록 설정이 된다고 합니다.

 

애플의 지도에서도 VPS를 사용한 AR 기능

지도 서비스와 AR의 관계는 관련 기술을 개발하는 곳이라면 반드시 생각하고 있을 정도로 중요한 것이다.

애플도 2020년 연례 개발자 회의 'WWDC 2020'에서는 AR용 API인 'ARKit4'의 기능 중 하나로 '로케이션 앵커'라는 기능을 발표했습니다.

WWDC 2020 세션 비디오에서. ARKit4에서는, 현실의 장소에 CG를 두는 「로케이션 앵커」가 발표되었습니다.
WWDC 2020 세션 비디오에서. ARKit4에서는, 현실의 장소에 CG를 두는 「로케이션 앵커」가 발표되었습니다.
WWDC 2020 세션 비디오에서. ARKit4에서는, 현실의 장소에 CG를 두는 「로케이션 앵커」가 발표되었습니다.ㅍ
 
 

이 서비스도 역시 구글의 'ARCore Geospatial API'와 마찬가지로 VPS입니다. 

거리의 3D 데이터를 작성하면서, 거기로부터 특징적인 점을 취득하여, 카메라의 화상과 비교하는 것으로, 자신이 어디에 있고, 어디를 향하고 있는지를 판단합니다.

 

2020년 당시에는 샌프란시스코 시내 등, 극히 일부의 장소를 커버하고 있었던 것에 지나지 않았지만,

현재는 상황이 바뀌어 보다 많은 곳을 서비스하게 된다고 합니다.

 

실제로 일본에서는 지난 5월부터는 도쿄·오사카·교토·나고야·후쿠오카·히로시마·요코하마 등에서 'AR Walking'으로 애플의 맵 안에 위치 앵커를 사용한 기능이 내장되어 사용하게 되었다고 합니다.

 

실제로 사용해 보면, 꽤 재미있다고 합니다. 길을 걷다가 멈추고 iPhone을 내밀어 정면 건물을 동영상으로 스캔하도록 움직이면 인식이 이루어진다고 합니다. 

 

걷고 있을 때는 보통의 맵이지만, 멈춰 서서 아이폰을 살짝 움직이면, AR Walking의 기능으로서, 목적지에의 화살표가 나타난다고 합니다.

AR Walking을 사용한 모습. Google 지도의 "라이브 뷰"에 가까운 기능이지만, 보다 동작은 간단. 눈 앞의 풍경을 스캔하면 향해야 할 방향의 화살표가 공중에 표시됩니다.
 
 

각각의 회사가 "시대의 변화"를 선도하려 합니다.

 

갑자기 여러 회사가 이러한 기술을 선보이려 하는 것인지? 정확한 이유는 불분명하지만,

 

'시대의 변화'를 모두가 느끼고 있을지도 모르겠습니다.

 

VPS는 스마트폰에서의 AR 뿐만이 아니라, 이른바 「AR 글라스」에도 유용하기 때문 입니다.

 

AR그래스로 CG를 글라스에 보여주기 위해서는 자신이 어디에 있는지, 어느 방향을 향하고 있는지 알 필요가 있는 것입니다. 스마트폰의 GPS만으로는 능력 부족이며, VPS를 사용하여 센티미터 단위로 정렬을 할 필요가 있는 것이지요.

 

물론, 해결해야 할 과제는 넘쳐나고 있습니다.

VPS를 항상 사용하면 데이터를 처리하기 위한 부하가 커지고 AR 안경에는 부담이 됩니다.

 VPS를 위해 카메라를 탑재한 AR 글라스가 '프라이버시 침해가 아님'을 이해하게 하려면 이용 규칙을 포함한 법률의 정비도 필수일 것입니다.

 

하지만 어느 쪽이든, 스마트 폰에서 VPS를 사용한 '진짜 AR'이 가능하게 되면, AR 글라스는 그 연장선상에 있는 존재라고 할 수 있는 것이네요.

 

한국에서의 AR은 군사문제라던가 등으로 아직 지도를 완전히 개방할 수 없을 것이지만 대도시 만이라도 이러한 기술을 상용화하여 서비스를 하게 된다면 정말 유용하고 편리하게 사용할 기술이 될 것 같습니다. 애플 개발자를 위한 이벤트 WWDC에서도 이러한 이야기라던가가 나오게 되는 것은 아닐까? 살짝 기대해보려고 합니다. 

 

애플 개발자를 위한 이벤트 WWDC의 기조강연은 6월 7일 오전 2시부터입니다.

728x90
반응형

댓글