ETRI 연구진이 AI 안전성과 신뢰성 확보를 위한 레드팀 테스팅을 설명하는 모습

출처 : SONOW

글로벌 AI 안전 표준화의 선두주자로 나선 ETRI

한국전자통신연구원(ETRI)이 인공지능(AI) 안전성과 신뢰성 분야에서 글로벌 표준을 주도하겠다는 야심찬 계획을 발표했다. ETRI는 19일 AI 시스템의 위험을 미리 찾아내는 'AI 레드팀 테스팅' 표준과 AI의 신뢰 수준을 시각화하는 '신뢰성 사실 라벨(TFL)' 표준을 국제표준화기구(ISO/IEC)에 제안하고 개발에 착수했다고 밝혔다.

이번 표준화 작업은 단순한 기술 개발을 넘어 AI 시대의 규칙을 만드는 '선도자(First Mover)' 위상을 확보한다는 전략적 목표를 담고 있다. 특히 미국과 EU 등 주요국들이 AI 규제 정책을 강화하고 있는 상황에서, 한국이 국제 표준 제정의 주도권을 잡겠다는 의지를 명확히 한 것이다.

이는 정부가 추진하는 소버린 AI 및 AI G3 도약 전략과도 직결된다. 단순히 AI 기술을 사용하는 것을 넘어 AI 관련 국제 규범과 표준을 만드는 주체가 되겠다는 것으로, 글로벌 AI 생태계에서 한국의 발언권과 영향력을 크게 높일 수 있는 기회로 평가된다.

특히 AI 안전과 신뢰성은 현재 전 세계적으로 가장 뜨거운 이슈 중 하나다. 생성형 AI의 급속한 발전과 함께 AI의 오남용 가능성, 편향성, 투명성 부족 등의 문제들이 부각되면서 체계적인 안전 관리와 신뢰성 확보가 시급한 과제로 대두되고 있다.

AI 레드팀 테스팅: 선제적 위험 탐지 시스템

AI 레드팀 테스팅은 AI 시스템의 안전성을 공격적으로 탐색하며 테스트하는 혁신적인 방법론이다. 이는 사이버 보안 분야에서 사용되던 레드팀 개념을 AI 안전성 평가에 적용한 것으로, 생성형 AI가 잘못된 정보를 생산하거나 사용자 보호장치를 우회해 악용되는 상황을 미리 찾아내는 것을 목표로 한다.

ETRI는 이 분야 국제표준 ISO/IEC 42119-7의 에디터 역할을 맡아 의료, 금융, 국방 등 다양한 분야에 공통 적용할 수 있는 국제 공통 시험 절차와 방법을 개발하고 있다. 이는 AI 시스템의 안전성 평가에 대한 글로벌 기준을 만드는 핵심적인 작업으로, 향후 전 세계 AI 개발업체들이 따라야 할 안전성 검증 프로세스의 토대가 될 것으로 예상된다.

특히 주목할 점은 ETRI가 식품의약품안전처와 협력해 9월 4-5일 양일간 노보텔 서울 동대문 호텔에서 국내 최초로 '첨단 AI 디지털의료제품 레드팀 챌린지 및 기술 워크숍'을 개최한다는 것이다. 이는 첨단 인공지능 의료기기 분야에 대해 아시아권에서 최초로 열리는 행사로, 의료인, 보안전문가, 일반 시민이 참여해 AI의 편향, 위험성 등을 함께 점검하는 혁신적인 시도다.

또한 서울아산병원과의 협력을 통해 의료 전용 레드팀 평가 방법론도 개발하고 있어, 의료 분야 AI의 특수성을 반영한 맞춤형 안전성 평가 체계를 구축할 예정이다. 이는 의료 AI의 오진이나 오류가 직접적으로 환자의 생명과 안전에 영향을 미칠 수 있다는 점에서 매우 중요한 작업이다.

산업계와의 협력 강화

ETRI는 STA, 네이버, 업스테이지, 셀렉트스타, KT, LG AI연구원 등 주요 기업들과 협의체를 구성해 AI 레드팀 국제표준화 협력을 강화하고 있다. 이는 학계와 연구기관의 이론적 연구를 실제 산업 현장의 요구사항과 결합시켜 더욱 실용적이고 효과적인 표준을 만들기 위한 노력이다.

이러한 산학연 협력 체계는 표준 개발의 품질을 높일 뿐만 아니라, 향후 표준이 실제로 산업계에서 채택되고 활용될 가능성을 크게 높인다는 점에서 의미가 크다.

신뢰성 사실 라벨: AI의 투명성 혁명

신뢰성 사실 라벨(TFL, Trustworthiness Fact Labels)은 AI 시스템의 신뢰도를 소비자가 한눈에 알 수 있도록 시각화하는 혁신적인 개념이다. 이는 식품의 영양성분표와 유사한 방식으로 AI 시스템의 주요 특성과 성능 지표를 투명하게 공개하는 것을 목표로 한다.

ETRI는 ISO/IEC 42117 시리즈 표준 개발을 주도하고 있으며, 이 표준은 기업이 스스로 정보를 제공하거나 제3의 기관이 검증·인증하는 다양한 방식으로 운영될 수 있도록 설계되고 있다. 이는 AI 시장의 다양성과 복잡성을 고려한 유연한 접근법으로 평가된다.

특히 흥미로운 점은 향후 AI의 탄소배출량(탄소발자국) 같은 ESG 요소도 반영하는 방안을 검토하고 있다는 것이다. 이는 AI 기술의 환경적 영향에 대한 관심이 높아지는 글로벌 트렌드를 반영한 것으로, AI의 성능뿐만 아니라 지속가능성까지 고려한 종합적인 평가 체계를 구축하려는 의도를 보여준다.

이 표준은 인공지능 활용 조직에 대한 국제 인증 표준인 'AI 경영시스템 표준'(ISO/IEC 42001)과도 연계해 개발되어, AI를 도입한 기업이나 조직이 개발한 제품 및 서비스의 신뢰성을 입증할 수 있는 종합적인 틀로 자리잡을 전망이다.

소버린 AI 전략과의 연계성

이번 두 표준 개발은 정부가 추진하는 소버린 AI 및 AI G3 도약 전략과 밀접하게 연결되어 있다. 소버린 AI는 단순히 외국 기술에 의존하지 않는 독립적인 AI 기술을 보유하는 것을 넘어, AI 관련 국제 규범과 표준 제정에서 주도권을 확보하는 것까지 포함하는 개념이다.

ETRI는 미국 국립표준기술연구소(NIST)가 국가 AI 전략 실현을 위한 국내 및 국제 표준화를 뒷받침하는 것처럼, 한국도 AI 안전연구소 활동과 AI 보안기술 개발, AI 안전 및 신뢰성 국제 표준화 선도 작업을 통해 국가 AI 전략을 뒷받침한다는 구상을 밝혔다.

이는 단순한 기술 개발을 넘어 글로벌 AI 생태계에서 한국의 위상을 높이고, 향후 AI 관련 국제 논의에서 발언권을 확보하는 전략적 의미를 갖는다. 특히 AI 안전과 신뢰성은 모든 국가가 관심을 갖는 공통 관심사이기 때문에, 이 분야에서의 표준화 주도권 확보는 한국의 글로벌 AI 리더십 구축에 결정적 역할을 할 수 있다.

글로벌 AI 거버넌스에서의 한국의 역할

이승윤 ETRI 표준연구본부장은 "AI 레드팀 테스팅과 신뢰성 라벨은 미국, EU 등 각국 AI 규제정책에 포함된 핵심 기술 요소로, 이 국제 표준들은 세계 AI 시스템의 안전과 신뢰성을 평가하는 공통 기준이 될 것"이라고 강조했다.

그는 또한 "ETRI는 AI 안전과 신뢰성 분야 국제표준화를 주도해 대한민국이 소버린 AI뿐 아니라 소버린 AI 안전 기술을 이끄는 중심이 되도록 하겠다"고 밝혀, 한국이 단순히 AI 기술을 개발하는 국가를 넘어 AI 안전 기술과 표준을 주도하는 글로벌 리더가 되겠다는 의지를 명확히 했다.

이러한 노력은 현재 전 세계적으로 진행되고 있는 AI 거버넌스 논의에서 한국의 목소리를 강화하는 데 중요한 역할을 할 것으로 기대된다. 특히 미국과 중국 간의 AI 패권 경쟁이 치열해지는 상황에서, 한국이 제3의 대안을 제시하며 균형자 역할을 할 수 있는 기반을 마련하는 의미도 있다.

이번 성과는 과학기술정보통신부와 정보통신기획평가원(IITP)이 지원하는 '첨단 인공지능 안전 및 신뢰성 시험 평가 기술 표준 개발'과 식품의약품안전처 컨소시움 '생성형 AI 디지털의료제품 레드팀 시험 평가 기술 개발 및 실증' 과제를 통해 추진되었으며, 정부 차원의 체계적 지원이 뒷받침되고 있다는 점에서 성공 가능성이 높다고 평가된다.