구글 Search Live 기능 실행 화면

출처 : SONOW

구글은 9월 24일 공식적으로 Search Live를 출시했으며, 이는 실시간 카메라 기반 AI 대화를 도입하여 사용자가 검색 플랫폼과 상호작용하는 방식을 변화시켰다. 이제 미국 내 영어를 사용하는 모든 이용자들이 Labs에 가입하지 않아도 이 기능을 이용할 수 있으며, 스마트폰 카메라로 사물을 비추면서 질문을 하면 Gemini AI가 즉각적으로 대화형 응답을 제공한다.

텍스트 검색 넘어 음성·영상 동시 처리하는 혁신적 검색

Search Live는 기존의 텍스트 기반 질의에서 한층 진화한 방식으로, 사용자가 카메라 피드를 실시간으로 공유하면서 구글 검색과 대화를 주고받을 수 있게 한다. 표준 음성 검색과 달리, 이 기능은 오디오 질문과 시각적 맥락을 동시에 처리하여 관련 웹 링크와 함께 즉각적인 응답을 제공하며, 더 깊이 있는 탐색이 가능하다.

이 기능은 안드로이드 및 iOS 기기용 Google 앱을 통해 작동하며, 검색창 아래의 새로운 Live 아이콘을 탭하거나 Google Lens를 통해 접근할 수 있다. 사용자가 음성으로 질문을 하는 동안, 카메라는 주변 환경을 분석하여, 말차 준비 도구 식별부터 특정 케이블과 포트를 인식해 전자기기 문제 해결까지 다양한 상황에 대응할 수 있다.

프로젝트 아스트라 기반 Gemini 2.5 Pro로 멀티모달 AI 구현

프로젝트 아스트라(Project Astra) 기능과 구글의 Gemini 2.5 Pro 모델을 기반으로 구축된 Search Live는 AI 응답과 함께 웹 링크를 유지하면서 구글의 전통적인 검색 경험을 유지한다는 점에서 Gemini Live와 차별화된다. 이 기능은 연속적인 오디오 및 비디오 데이터 스트림을 몇 초 만에 처리하며, 음성-텍스트 변환, 맥락 이해, 실시간 웹 정보 검색을 수행한다.

Search Live는 제품을 즉시 스캔하여 스와이프로 넘길 수 있는 캐러셀에 실시간으로 일치하는 상품을 보여줌으로써 원하는 제품을 더 쉽게 찾을 수 있게 합니다라고 구글은 설명했다. 이 기능은 하나의 카메라 프레임 내에서 여러 개의 사물을 동시에 처리할 수 있는 기술력을 보여준다.

아마존 Lens Live와 경쟁, 인도 두 번째 출시 시장 예정

이 출시로 구글은 최근 유사한 제품 검색 시각 검색 기능을 제공하는 아마존의 Lens Live 기능과 경쟁하게 되었다. 하지만 구글은 방대한 검색 인덱스와 멀티모달 AI 처리 기술을 접목하여 쇼핑을 넘어 교육 지원, 여행 지원, 기술 문제 해결 등 더 다양한 분야에 활용할 수 있다.

시스템은 컴퓨터 비전 알고리즘을 통해 시각적 입력을 지속적으로 분석하면서 여러 대화 주제에 걸쳐 대화 맥락을 유지한다. 이는 단순한 이미지 인식을 넘어 상황을 이해하고 적절한 정보를 제공하는 진정한 AI 어시스턴트로의 진화를 보여준다.

인도는 Search Live를 두 번째로 출시하는 시장이 될 것으로 예상되며, 구글은 곧 출시 예정이라고 밝혔으나 구체적인 출시 일정은 발표하지 않았다. 이 기능은 현재 카메라와 마이크 사용 권한이 필요하며, 회사가 데이터 보관 정책에 대해 아직 명확하게 밝히지 않은 가운데, 시각·음성 데이터를 연속적으로 처리해야 한다는 점에서 개인정보 보호에 대한 우려가 제기되고 있다.