인공지능 개발사들이 군부의 요구에 맞춰 군용 AI 개발을 추진하는 가운데 안전 기준과 충돌할 위험이 커짐.
Anthropic는 미국 정부로부터 최초로 비밀 정보 활용 허가를 받은 주요 인공지능(AI) 회사였다. 하지만 지금, 펜타곤이 2억 달러 계약을 재고하고 있으며, Anthropic에 대한 '공급망 위험' 표시를 검토하는 상황이다. 이는 AI 개발사들이 군사적 목적으로 인공지능 활용에 대해 어떻게 대처해야 하는지에 대한 중요한 질문을 제기한다.
Anthropic은 특정 치명적인 작전 참여에 반대하며, 이러한 사고 방식이 펜타곤의 불만으로 이어졌다는 의견도 있다. AI 규제를 지지하는 Anthropic은 현재 AI 산업에서 주류를 이루는 경향과 대립하고 있는 상황이다.
이는 군사적인 목적에 대한 수요가 인공지능 자체의 안전성을 위협할 수 있음을 보여주는 사례다. AI 전문가들은 인공지능이 가장 강력한 기술이며, 광범위한 피해를 예방하면서 슈퍼인공지능(AGI) 달성 가능성에 대해 믿고 있다. Anthropic은 모델의 안전장치를 통해 악용을 방지하는 것을 목표로 한다.
그러나 주요 AI 연구소들이 군사 및 정보 작전에 제품을 도입하려는 동향이 나타나고 있다. Anthropic은 이미 분류된 계약을 가진 최초의 주요 연구소 중 하나이며, 미국 국가 안보 고객을 위해 "Claude Gov 모델 세트"를 제공했다. 하지만
Anthropic CEO Dario Amodei는 Claude가 군사용 무기 제작이나 AI 정부 감시에 사용되지 않기를 원한다고 밝혔다. 하지만 현재 행정부의 입장에서는 이러한 제약이 받아들여지지 않는 것으로 보인다.
펜타곤은 AI 회사들이 국방과의 파트너십을 위해서는 무슨 일이든 승리하기 위해 최선을 다해야 한다고 명시했다. 이러한 접근 방식은 긍정적인 결과를 가져올 수 있지만, 안전한 인공지능 개발 노력에 방해가 될 수 있다.
인공지능의 안전성과 군사적 활용 사이의 갈등은 앞으로 더욱 심각해질 것이다. 국제 사회는 인공지능의 해로운 사용을 감시하고 제한하는 데 필요한 기구를 만드는 것에 대한 대화를 다시 시작해야 할 때이다.