

Llama 4 기반 개인 맞춤형 AI 비서 'Meta AI' 출시, 대화와 이미지 생성을 한 앱에서.
메타(Meta)가 자사의 최신 AI 모델 'Llama 4'를 기반으로 한 개인 맞춤형 AI 비서 앱 'Meta AI'를 공식 출시했다. 이번에 출시된 Meta AI는 단순한 챗봇을 넘어 사용자의 취향과 대화 맥락을 기억하고 학습하는 진정한 의미의 AI 어시스턴트를 지향한다. 특히 음성 대화에 특화되어 있으며, 텍스트나 음성 명령을 통한 이미지 생성 및 편집 기능도 통합하여 제공한다.
Meta AI는 메타의 최신 대규모 언어 모델인 Llama 4를 기반으로 개발되었다. 이전 모델보다 더 자연스럽고 대화형 톤을 제공하는 것이 특징으로, 사용자와의 대화를 통해 개인의 선호도와 관심사를 학습하여 점차 더 맞춤화된 응답을 제공한다. 특히 메타는 대화의 맥락을 장기간 기억하는 능력을 강화하여, 사용자가 이전 대화를 참조하거나 이어갈 수 있도록 했다.
주목할 만한 기술적 특징 중 하나는 'full-duplex speech' 기술이 적용된 음성 대화 기능이다. 이 기술은 AI가 단순히 텍스트를 음성으로 변환하는 것이 아니라, 사람이 대화하듯 자연스러운 억양과 어조로 응답하는 것을 가능하게 한다. 사용자가 말을 중간에 끊거나 질문을 변경해도 AI가 이를 이해하고 적절히 대응할 수 있어, 보다 인간적인 대화 경험을 제공한다.
이미지 생성 및 편집 기능도 Meta AI의 주요 특징 중 하나다. 사용자는 텍스트나 음성으로 원하는 이미지를 설명하면 AI가 이를 생성해주며, 생성된 이미지의 스타일, 분위기, 색상 등을 조절하는 것도 가능하다. 이는 창의적 작업을 하는 사용자들에게 새로운 도구로 활용될 수 있을 전망이다.
페이스북부터 Ray-Ban 안경까지, 메타 에코시스템 전체와 통합되는 크로스 플랫폼 AI.
Meta AI의 가장 큰 차별점은 메타의 다양한 플랫폼과 기기에 걸쳐 원활한 연동이 가능하다는 점이다. 페이스북, 인스타그램, WhatsApp, Messenger 등 메타의 주요 소셜 미디어 플랫폼은 물론, Ray-Ban Meta 스마트 안경까지 Meta AI와 연동되어 통합된 AI 경험을 제공한다.
특히 주목할 만한 것은 Ray-Ban Meta 안경과의 통합이다. 메타는 이번 출시와 함께 기존의 Ray-Ban Meta 안경용 Meta View 앱을 Meta AI 앱으로 통합했다. 이를 통해 사용자는 안경에서 시작한 대화를 앱이나 웹에서 이어갈 수 있고, 앱과 웹 사이에서도 대화를 자유롭게 이어갈 수 있게 되었다. 다만, 현재는 앱이나 웹에서 시작한 대화를 안경에서 이어보는 기능은 아직 지원하지 않는다.
Meta AI는 개인 맞춤형 AI 비서로, 사용자의 취향과 맥락을 기억해 더 자연스럽고 친숙한 대화를 지원합니다. 음성 대화에 특화되어 있으며, Llama 4 모델을 기반으로 더욱 개인적이고 대화형 톤을 제공합니다. 페이스북, 인스타그램, WhatsApp, Messenger뿐만 아니라 Ray-Ban Meta 안경과도 연동됩니다.
메타는 플랫폼 간 연속성을 강조하며, Meta AI의 웹 버전도 업그레이드했다. 이제 웹에서도 음성 대화 기능과 Discover 피드를 사용할 수 있어, 모바일 앱이나 Ray-Ban Meta 안경과 연결되는 일관된 경험을 제공한다. 웹 인터페이스는 데스크탑 환경에 최적화되어 있으며, 이미지 생성 기능도 강화되었다. 스타일, 분위기, 조명, 색상 등을 조절할 수 있는 프리셋이 추가되어 사용자의 창의적 표현을 지원한다.
또한, 일부 국가에서는 문서 작성 기능도 시험 중이다. 이 기능을 통해 사용자는 텍스트와 이미지를 포함한 문서를 생성하고 PDF로 내보낼 수 있으며, 사용자가 문서를 불러와서 Meta AI가 분석할 수 있도록 하는 기능도 테스트 중이다. 이는 메타가 생산성 도구 영역으로도 AI 서비스를 확장하고 있음을 보여준다.
커뮤니티 기반 프롬프트 공유와 개인화, 국가별 제한적 출시와 향후 계획.
Meta AI는 개인 맞춤형 경험을 넘어 커뮤니티 기반의 AI 활용도 지원한다. 앱 내 'Discover feed'에서는 다른 사용자들의 AI 활용 사례를 살펴보고, 자신만의 프롬프트로 변형해볼 수 있다. 이는 AI의 활용 방법을 배우는 동시에 창의적 영감을 얻을 수 있는 기회를 제공한다.
메타는 프라이버시를 중요시하여, 모든 공유는 사용자가 명시적으로 선택할 때만 이루어진다고 강조했다. 기본적으로 사용자의 대화와 생성물은 비공개로 유지되며, 사용자가 원할 경우에만 Discover feed에 공유할 수 있다. 또한, 페이스북과 인스타그램 계정에 Meta AI를 연결하면, AI가 사용자의 소셜 미디어 활동을 학습하여 더욱 개인화된 경험을 제공할 수 있다.
현재 Meta AI는 미국, 캐나다, 호주, 뉴질랜드 등 일부 국가에서만 이용 가능하다. 특히 한국을 포함한 많은 국가에서는 아직 서비스가 제공되지 않고 있어 아쉬움을 자아내고 있다. 메타 측은 향후 점진적으로 지원 국가를 확대해 나갈 계획이라고 밝혔지만, 구체적인 일정은 공개하지 않았다.
한편, 메타는 오늘(현지시간) 라마콘(LlamaCon) 행사를 개최할 예정이다. 이 행사에서는 Llama 4와 Meta AI에 대한 추가 정보와 함께 메타의 AI 전략에 대한 더 많은 내용이 공개될 것으로 기대된다. 특히 최근 오픈소스 AI 모델 경쟁이 치열해지는 가운데, 메타가 Llama 4를 통해 어떻게 차별화된 가치를 제시할지 주목된다.
Meta AI 앱의 출시는 메타가 AI 기술을 자사의 다양한 서비스와 하드웨어에 통합하려는 장기적 전략의 일환으로 볼 수 있다. 특히 Ray-Ban Meta 안경과의 연동은 메타가 추구하는 증강현실(AR) 미래와 AI의 결합을 보여주는 중요한 사례다. 향후 메타버스와 같은 메타의 미래 플랫폼에서 Meta AI가 어떤 역할을 하게 될지도 관심이 집중된다.
메타의 이번 행보는 마이크로소프트의 코파일럿, 구글의 제미나이, 앤트로픽의 클로드 등 주요 AI 기업들의 개인 맞춤형 AI 어시스턴트 전쟁에 본격적으로 뛰어든 것으로 해석된다. 특히 소셜 미디어와 AR 기기를 보유한 메타의 강점을 살려, 차별화된 AI 경험을 제공하려는 시도로 보인다. 이러한 경쟁은 결국 소비자들에게 더 다양하고 발전된 AI 서비스를 제공하는 결과로 이어질 것으로 전망된다.