[ChatGPT를 이용해 번역한 글입니다. 원문은 글 하단에 기재된 링크를 참고하시기 바랍니다]
구글의 스마트 글래스는 실시간으로 객체를 기억하고, 언어를 번역하며, 발표 노트를 표시합니다.
구글이 최근 TED2025 컨퍼런스에서 Android XR 기반 스마트 글래스를 공개하며 이 혁신적인 기기의 실시간 기능을 선보였습니다. 스마트 글래스는 이제 착용 가능한 기술의 미래를 정의하는 중요한 분야로 떠오르고 있으며, 메타의 레이벤 협업이 큰 주목을 받았던 가운데, 구글, 애플, 삼성 등 주요 기술 기업들이 스마트 글래스를 비롯한 다양한 프로젝트를 개발하고 있습니다.
이번 발표에서 구글은 그동안 비공개로 진행되었던 Android XR 스마트 글래스를 실시간 시연을 통해 대중에게 공개했습니다. 이 글래스는 이전에 제한된 미디어에만 공개된 티저 영상과 몇 가지 제한된 체험을 제외하고는 아직 실물 공개가 없었으나, TED2025에서 샤흐람 이자디 구글 Android XR 책임자와 니슈타 바티아가 무대에 올라 프로토타입을 실제로 보여주었습니다.
이 시연에서는 기존 스마트 안경들과 차별화되는 다양한 기능들이 소개되었습니다. 겉보기에는 일반적인 안경처럼 보이지만, 내장된 고해상도 컬러 디스플레이, 소형 카메라, 마이크, 스피커 등 첨단 기술들이 탑재되어 있습니다. 이 안경은 가볍고 눈에 띄지 않으며, 처방 렌즈도 지원합니다. 또한 스마트폰과 연결하여 더 많은 앱을 사용할 수 있는 기능도 제공합니다.
이자디는 시연을 시작하며 무대에서 발표 노트를 스마트 글래스를 통해 보여주는 일상적인 활용 사례를 시연했습니다. 하지만 가장 주목할 만한 기능은 구글의 제미니 AI 어시스턴트와의 통합이었습니다. 바티아는 제미니를 사용하여 즉석에서 하이쿠를 생성하고, 잠시 전에 본 책 제목을 기억하며, 분실된 호텔 키 카드를 찾는 등 음성 명령과 실시간 시각 처리로 다양한 작업을 수행하는 모습을 선보였습니다.
이 안경의 기능은 그 이상을 넘어서, 실시간 번역을 포함한 다양한 능력을 보여주었습니다. 예를 들어, 영어로 쓰인 표지판이 페르시아어로 번역되었다가, 바티아가 힌디어로 명령을 내리자 바로 힌디어로 변환되는 모습을 실시간으로 시연했습니다.
또한, 다이어그램에 대한 시각적 설명, 음악 앨범을 인식하고 곡을 재생하는 제안, 그리고 착용자의 시야에 3D 지도 오버레이를 보여주는 내비게이션 기능 등도 시연되었습니다.
구글의 Android XR 플랫폼은 삼성과 퀄컴과 협력하여 개발된 이 오픈형 통합 운영 체제로, 가상 현실과 증강 현실 환경에서 YouTube, Google TV, 3D Google Photos, 몰입형 Google Maps, 여러 개의 플로팅 창을 띄울 수 있는 Chrome 등을 제공합니다. 사용자는 손 동작, 음성 명령, 시각적 신호를 통해 앱을 조작할 수 있으며, 기존 안드로이드 앱들과도 호환되어 강력한 생태계를 제공합니다.
한편, 삼성은 올해 말 자체 스마트 글래스를 출시할 예정입니다. 코드명 '해안'으로 불리는 이 스마트 글래스는 일반 선글라스를 닮은 디자인으로, 카메라와 센서를 이용한 제스처 기반 제어 기능을 탑재할 것으로 예상됩니다. 최종 사양은 아직 결정되지 않았지만, 카메라, 가벼운 프레임, 퀄컴의 스냅드래곤 XR2 Plus Gen 2 칩 등이 탑재될 것으로 보이며, 비디오 녹화, 음악 재생, 음성 통화 기능도 추가될 예정입니다.
원문 출처 : https://www.techspot.com/news/107616-google-demos-android-xr-smart-glasses-gemini-ai.html
댓글