인공지능의 확산은 인공지능 윤리 및 신뢰성 이슈를 발생시키며 사회적 문제를 야기하였다. 이에 국내외 정부 및 기업, 국제 기관, 학계 등 전방위적으로 대응 정책을 마련중에 있다. 국내외 주요 정부와 국제 기관 등에서는 윤리적 인공지능 및 신뢰할 수 있는 인공지능 개발을 위한 권고안, 정책 보고서를 발간하고 있으며 주요 기업들 또한 신뢰할 수 있는 인공지능 개발을 위하여 기업 윤리 원칙 수립과 신뢰성 검증 도구 등의 개발을 촉진하고 있는 상황이다. 국내 또한 인공지능 신뢰성 확보를 위해 신뢰할 만한 인공지능 실현 전략 등을 추진하고 있다. 이렇듯 시의성 있는 정책 대응 방안 마련이 필요한 시점에서 인공지능 신뢰성 확보를 위한 국내외 정책 동향을 조사하고 분석하여 국내 인공지능 정책 고도화를 위한 시사점을 제공하고자 한다.
3. 연구의 구성 및 범위
본 연구는 국내외 AI 신뢰성 정책 동향 분석을 위하여 ▲주요국 ▲국제기구 ▲기업 및 산업 ▲기술과 표준을 조사하였다. 주요국으로는 AI 기술이 발달하고 신뢰성 분야에 대해 노력을 기울이는 10개국(EU, 독일, 미국, 싱가포르, 영국, 일본, 중국, 캐나다, 프랑스, 한국)을 조사 대상으로 하였다. 국제기구로는 신뢰성 AI에 대해 심도 있는 연구를 통해 정책 제언 문서를 발간하는 OECD와 UN, NATO를 조사 대상으로 하였다. 기업 및 산업 분야에서는 국외 기업으로 Alphabet(Google), Amazon, Apple, Microsoft, Meta Platforms, IBM, Tesla, AI 전문기업으로 OpenAI, 국내 기업으로는 신뢰성 AI 관련 자료를 발표한 네이버, 카카오, LG전자, KB금융을 조사 대상으로 하였다. 기술 및 표준 동향 부문에서는 국제 AI 학술단체와 표준기관들을 조사하였다.
연구 범위로는 주요국과 국제기구의 경우 관련 부처 및 기관·기구 홈페이지를 통해 AI 신뢰성과 관련된 문서로 공개된 자료를 대상으로 전수 조사하여 채택했다. 기업은 보도자료와 언론에 보도된 기사, 기업들이 운영하는 블로그 등을 검색하여 조사했으며, 학술단체의 경우는 단체 홈페이지와 학술대회 홈페이지 등을 통해 발간·공개된 자료를 수집해 조사하였다.
연구의 시간적 범위는 2021년~2022년에 발표된 자료를 주 조사 대상으로 하며, 중요 자료로써 본 연구에서도 분석이 필요한 경우 2020년에 발표된 자료도 활용하였다.
4. 연구 내용 및 결과
연구 결과 국가별 법·제도, 기업·산업 정책, 인력·고용 정책, 기술·연구개발 정책, AI 윤리 정책 등 분야에 따른 다양한 AI 신뢰성 정책 동향이 시행 중이었다. 전반적으로 AI 전략의 탁월성과 신뢰성을 중점에 두고 산업 역량 강화와 동시에 인간의 기본권 강화에 중점을 두었다. EU의 AI 법안은 EU 회원국 및 비회원국까지 영향을 미치며 주요 AI 정책 방향성으로 현재까지도 AI 관련 법안에 대한 이슈가 이어지는 중이다. 또한, 국가별 AI 전략을 수립하고 발표하며 프레임워크를 지정하고, 정부의 전략 구현을 위한 지원 계획 등 가이드라인을 배포하기도 하였다
국제기구는 AI 원칙 체계를 따르며 신뢰할 수 있는 AI를 위한 정책을 강화하였다. OECD는 2021년 6월, OECD AI 원칙 구현을 위한 도구와 관행을 비교하는 프레임워크 관련 보고서를 발표하였다. OECD는 신뢰할 수 있는 AI를 구현하기 위한 도구, 관행 및 접근방식에 대해 지금까지 학습한 정보, 지식 및 교훈을 수집, 구성 및 공유를 목표로 하여 다양한 상황에서 도구를 비교할 수 있는 방법을 제공하였다.
기업들은 자체적으로 책임 있는 AI 개발을 위한 원칙을 선언하고, 책임 있는 AI 사례, 검증 프로세스, 도구 등을 웹사이트에 게시하였다. 또한, 책임 있는 AI 이용 지침을 개발하고 단계를 구분하여 세부적인 지침을 제공하는 사례도 있었다. AI 윤리 기준을 마련하여 AI 윤리 실천 연구 수행 등 AI 신뢰성을 향상시키기 위한 기업들의 다양한 연계 활동을 확인할 수 있다.
기술 및 표준 동향으로 국제 학술단체 IEEE는 신뢰할 수 있는 AI 기술 예측 연구를 발표하였다. 신뢰할 수 있는 AI 관련 문제점과 수요, 기회, 영향, 지속가능한 해결책과 비즈니스 기회로 구분하여 세부적으로 분석 및 예측하였다. 또한, ACM의 기술정책위원회는 2022년 10월 책임 있는 알고리즘 시스템을 위한 원칙을 발표하였다. 이외에도 AI 신뢰성 기술 연구를 위하여 국제 학술행사 ACM FAccT도 매년 개최하였다. ACM FAccT 2022 행사에서는 글로벌 AI 윤리, 투명성 등에 대한 전문가들의 최신 연구 발표 및 주요한 이슈에 대한 논의가 진행되었다. 표준기관 ISO와 IEC는 일관된 AI 표준 세트 개발의 필요성을 인식하여 ISO/IEC JTC 1/SC 42(Artificial Intelligence)라는 AI 표준화 위원회를 운영하고 있다. ISO/IEC JTC 1 SC 42는 전체 AI 생태계의 국제표준화를 검토하고 있다.
국내 표준기관인 한국표준협회(KSA)는 2021년부터 AI 제품의 품질과 신뢰성 확보를 지원하고, 관련 기술의 표준화 선도를 위해 AI+ 인증제도를 개발하여 AI 관련 기업에 인증 서비스를 제공하고 있다. 한국정보통신기술협회(TTA)는 2022년 7월 정부의 세계 최고 수준의 AI 혁신전략에 적극 대응하고 AI융합 분야 품질확보를 지원하기 위해 ‘AI융합시험연구소’를 개소하였다.
5. 정책적 활용 내용
본 연구를 통해 국내외 AI 신뢰성 정책 동향을 파악하였으며, 도출한 시사점을 기반으로 다양한 정책적 활용 방안을 고안할 수 있다. 첫째, 주요국 정부에서는 산업과 사회에 AI 기술을 도입하고 확장하고자 할때 AI 신뢰성을 주요 요인으로 인지하고 국가 AI 전략과 정책 요소에 필수 요소로 포함하고 있다는 것이다. 이는 국내에서도 인공지능 윤리 기준안(’20.12), 신뢰할 만한 인공지능 실현 전략(’21.5) 등의 사례로 보아 AI 전략 수립에 있어 AI 신뢰성의 중요성을 인지하고 있음을 보여준다. 이에 향후 국내 인공지능 정책 고도화 고려사항으로 활용 가능한 AI 신뢰성 전략 방안을 채택할 필요가 있다.
둘째, 미국과 같은 AI에 대해 가장 앞선 국가에서는 민관이 참여한 거버넌스를 통해 AI 전담 조직을 구성하고 있다는 점이다. 이들은 AI 신뢰성에 대한 태스크포스, 워킹그룹 등을 형성하여 전문적이고 지속적인 연구를 수행하고 있다. 국내에도 AI 기술의 확산으로 표준기관 및 산업, 학계에서 AI분야 연구소가 설립되고 연구가 이루어지는 만큼, AI 신뢰성에 초점을 맞춘 다양한 연구 및 민관 협력을 통해 유의미한 정책 방향성을 고안할 수 있는 연구 수행 환경 구성이 필요하다.
마지막으로 EU 및 미국에서는 AI 관련 법제 마련에 노력을 기울이고 있다. 특히 해당 법에는 AI 신뢰성과 관련한 규율을 포함하고 있다. 국내에서도 AI 법제도 정비 로드맵을 발표하며 법제 정비에 비전을 제시하였으므로, 국외 사례를 기반으로 국내에 적용할 수 있는 실효성 있는 법제 사례와 현황을 지속적으로 파악할 필요성이 있다.
6. 기대효과
본 연구는 국내외 AI 신뢰성 정책 사례를 모니터링하고 심층 분석하여 국내 AI 신뢰성 기반 조성을 위한 활용 방안을 고안하였다. 국가별 정책 현황 정리 자료는 향후 국내 AI 신뢰성 정책 고도화에 필요한 전략 및 법제 적용을 위한 사례로 참고 가능할 것으로 기대한다. 또한, 현 자료는 최신자료를 기반으로 진행하였기에 추후 추가적으로 발표될 자료 및 전략들에 대한 사전 자료로 참고 가능하다.
AI 기술의 부흥과 이로 인한 AI 신뢰성 문제 대두, 이를 해결하기 위한 주요국의 기관·기구·기업들의 현황을 정리함으로써 AI 신뢰성을 위해 고려해야 할 분야별 방향성을 제시하였다. 본 연구 결과를 바탕으로 AI 신뢰성을 확보하기 위해 각국 및 기업들의 향후 전략 수립과 연구 계획의 참고자료로 활용되길 기대한다.