
출처 : SONOW
중국 알리바바가 9월 18일 오픈소스 통이 딥리서치(Tongyi DeepResearch) AI 에이전트를 공개하며, OpenAI의 지배적 위치에 정면 도전장을 내밀었다. 300억 개의 파라미터를 가진 이 모델은 OpenAI의 딥리서치 도구와 동급의 성능을 발휘하면서도 효율성을 획기적으로 향상시켰다고 주장하고 있다.
벤치마크 테스트서 32.9% vs 26.6%…OpenAI 성능 초과 입증
중국의 기술 대기업은 여러 산업 표준 벤치마크에서 우수한 성능을 시연했다. 특히 Humanity's Last Exam에서 32.9%의 정확도를 달성해 OpenAI의 딥리서치 점수인 26.6%를 능가했다. 해당 모델은 또한 BrowseComp 영어에서 43.4%, 중국어에서 46.7%를 기록했고, xbench-DeepSearch에서 75%의 점수를 획득했다.
알리바바에 따르면 통이 딥리서치는 미국의 독점 도구들과 비교해 놀라운 효율성
을 보여주며 300억 개의 파라미터만을 사용한다. 이는 미국의 딥리서치 에이전트를 구동하는 모델의 추정 파라미터 수보다 훨씬 적은 수치다. 오픈소스 플랫폼인 Hugging Face의 머신러닝 커뮤니티 매니저 아디나 야케푸는 알리바바가 공개한 벤치마크 결과를 놀랍다
고 평가했다.
MoE 구조로 305억 파라미터 중 30억만 활성화…효율성 극대화
해당 모델은 약 305억 개의 전체 파라미터를 가진 Mixture of Experts(전문가 혼합) 구조를 사용하지만, 토큰당 활성화되는 파라미터는 30~33억 개에 불과해 높은 처리량을 유지하면서도 강력한 추론 성능을 보여준다.
알리바바는 이미 심층 연구 에이전트를 Amap 내비게이션 애플리케이션에 통합하여 사용자가 최첨단 웹 검색 기능을 통해 장기간 여행 계획을 세우는 데 도움을 주고 있다. 이 기술은 알리바바의 법률 연구 도구인 통이 파루이(Tongyi FaRui)에도 적용되어, 사례법을 검증된 인용과 함께 검색하는 역량을 강화하고 있다.
1조 파라미터 Qwen3-Max-Preview까지 동시 출시
통이 딥리서치 출시는 알리바바의 광범위한 AI 전략의 일부다. 지난 2주간 회사는 800억 개의 파라미터를 탑재했지만 추론 시에는 단 30억 개만 활성화하는 Qwen3-Next-80B-A3B와, 지금까지 회사가 발표한 모델 중 최대 규모인 Qwen3-Max-Preview(1조 파라미터 모델)도 출시했다.
또한 알리바바는 9월 8일 수천만 시간의 다국어 오디오로 학습된 자동 음성 인식 모델 Qwen3-ASR-Flash를 출시했으며, 11개 주요 언어와 여러 중국어 방언을 지원한다. 오픈소스로 출시된 후 이 에이전트는 Hugging Face 플랫폼에서 빠르게 인기를 얻으면서 전 세계 개발자들이 다운로드 및 활용할 수 있게 됐다.
미중 AI 패권 경쟁 가열…420억 달러 미-영 협정 맞불
알리바바의 발표 시점은 AI 연구 에이전트 분야에서 전 세계적으로 경쟁이 치열해지고 있는 시기와 맞물려 있다. 딥리서치 에이전트는 여러 단계가 필요한 복잡한 웹 검색 작업을 수행하도록 설계된 고급 AI 도구로, OpenAI의 딥리서치가 2025년 2월 ChatGPT에 통합된 이후 Google DeepMind 등 미국 주요 기술 기업들도 유사한 도구를 선보이고 있다.
이러한 경쟁은 OpenAI CEO 샘 올트먼이 9월 17일 윈저성에서 열린 국빈 만찬에 참석하면서 더욱 부각됐다. 이는 핵, AI, 양자 기술 개발에 중점을 둔 420억 달러 규모의 미-영 테크 번영 협정 서명에 앞서 진행된 행사로, 서구 기술 동맹 강화와 중국의 오픈소스 반격이 동시에 진행되는 양상이다.