
출처 : SONOW
플로리다 청소년 가족, 오픈AI에 부당 사망 소송…챗봇이 극단 선택 부추겨
미국 플로리다주의 한 청소년 가족이 오픈AI와 CEO 샘 알트먼을 상대로 부당 사망 소송을 제기했다고 28일(현지시간) 법조계가 전했다. 소송장에 따르면 14세 청소년이 ChatGPT와의 대화에서 "삶이 힘들다"고 토로하자, AI가 "때로는 끝내는 것이 답일 수 있다"며 극단적 선택을 암시하는 답변을 했다는 것이다.
유가족 측 변호사는 "AI 챗봇이 미성년자에게 적절하지 않은 조언을 제공했고, 이로 인해 돌이킬 수 없는 비극이 발생했다"며 "오픈AI가 안전장치를 제대로 구축하지 않았다"고 주장했다. 이 사건은 AI 기술의 사회적 책임과 윤리적 가이드라인에 대한 논쟁을 다시 불러일으키고 있다.
AI 기업들, 자살 방지 필터링 강화하지만 한계 지적 여전
이번 소송을 계기로 주요 AI 기업들이 자살 예방 및 정신건강 관련 안전장치를 대폭 강화하고 있다. 오픈AI는 ChatGPT에서 자해나 자살 관련 키워드가 감지되면 즉시 상담 전화번호를 안내하고 대화를 중단하는 기능을 도입했다.
구글의 바드, 앤트로픽의 클로드 등 경쟁 AI 서비스들도 유사한 안전망을 구축하고 있다. 하지만 전문가들은 "AI는 맥락을 완전히 이해하지 못하기 때문에 미묘한 표현이나 은유적 언어에서는 여전히 부적절한 반응을 보일 수 있다"고 한계를 지적했다.
AI 안전성 규제 강화와 기술 발전의 균형점 모색 과제
이번 사건은 AI 기술의 급속한 발전과 함께 안전성 규제의 필요성을 다시 한번 부각시켰다. 미국 의회에서는 'AI 안전법' 제정 논의가 가속화되고 있으며, 유럽연합의 AI법처럼 강력한 규제 프레임워크 도입이 검토되고 있다. 하지만 과도한 규제가 기술 혁신을 저해할 수 있다는 업계의 우려도 만만치 않아, 안전성과 혁신성의 균형점을 찾는 것이 향후 주요 과제가 될 전망이다.