■
영국이 2026년 2월 3일 30개국 이상의 국가 및 EU·OECD·UN 등 국제기구의 추천을 받은 독립 전문가 100여 명의 자문을 통해 작성된 ‘2026년 국제 AI 안전 보고서’를 발간
●
동 보고서는 범용 AI 시스템의 성능과 위험성, 해당 위험을 관리하는 방안을 제시하고 있으며, 프런티어 범용 AI 시스템과 관련된 새로운 위험에 초점을 맞추어 정책 입안자의 선제 대응을 모색
■
(성능) 범용 AI의 성능은 지난 1년 사이 초기 학습 후 성능을 향상하는 ‘추론 시간 확장’ 기법에 힘입어 수학, 소프트웨어 엔지니어링, 과학 분야의 복잡한 추론 작업을 중심으로 대폭 향상
●
그러나 AI의 성능은 여전히 불균형적으로, 최첨단 AI 시스템이라도 이미지 속 객체 수 세기, 물리적 공간 추론, 복잡한 작업흐름에서 기본적 오류 복구 등의 비교적 간단한 작업에는 취약
●
2030년까지 AI의 발전 궤적은 불확실하나 현재 추세는 지속적인 발전이 예상되며, AI 기업들은 컴퓨팅 파워가 AI 발전의 핵심 요소가 될 것이라며 수천억 달러 규모의 데이터센터 투자를 예고
■
(주요 위험) 범용 AI의 위험은 ①악의적 사용 ②오작동 ③시스템적 위험의 세 가지 범주로 구분●
(악의적 사용) AI 생성물을 이용한 사기, 금융 범죄, 동의 없는 성적 이미지 제작 등의 범죄와 AI를 이용한 여론 조작, AI를 이용한 사이버 공격, 생물학적·화학적 무기 개발 등의 위험이 대두
●
(오작동) 허위 정보 생성, 오류 코드 작성, 잘못된 조언과 같은 오류로 인한 신뢰성 문제와 함께, AI 시스템의 자율성이 점차 높아지면서 향후 AI 시스템에 대한 통제력을 상실할 가능성도 제기
●
(시스템적 위험) 범용 AI는 지식노동 분야를 중심으로 광범위한 인지 업무를 자동화할 가능성이 높으며, AI 도구 의존도가 높아지면서 비판적 사고 능력이 약화하고 사회적 교류가 감소할 위험도 증가
■
(위험 관리 방안) 기술적·제도적으로 다양한 접근 방식을 결합해 더욱 강력한 위험 관리를 제안 ●
AI 기업들은 범용 AI의 위험 관리 활동으로 취약점을 파악하기 위한 위협 모델링, 잠재적으로 위험한 행동을 평가하는 성능 평가, 증거 수집을 위한 사건 보고 등을 자발적으로 시행
●
최근에는 악성 출력을 유도하는 공격이 한층 어려워지는 등, 기술적 안전장치가 개선되고 있으나 여전히 상당한 한계가 있으며, 여러 안전장치를 중첩하는 방식으로 더욱 견고한 방어 태세 필요
●
개방형 가중치 모델은 연구나 상업적 측면의 이점에도 불구하고, 일단 출시되면 회수가 불가능하고 안전장치를 쉽게 제거할 수 있으며 감시 환경을 벗어난 오용의 예방과 추적이 어렵다는 어려움을 내포
●
AI 관련 피해 발생 시 충격을 흡수하고 회복하는 사회적 복원력을 갖추기 위해서는 핵심 인프라 강화, AI 생성물 탐지 도구 개발, 새로운 위험에 대응할 수 있는 제도적 구축이 필요