SPRi Brain
노재원
AI정책연구실
노재원선임연구원
031-739-7326
연구성과물
  • 요약문 1. 제 목 : 글로벌 AI 신뢰성 동향 분석 2. 연구 목적 및 필요성 본 연구의 목적은 국내외의 AI 신뢰성 관련 동향 조사를 통해 최신 이슈를 파악 및 분석하여 정책적 시사점을 도출하고, 국내 정책 수립을 위한 기초 자료를 제공하는 데 있다. 인공지능 기술의 급격한 발전으로 국가사회 전반의 변화가 빠르게 이루어지면서, 현재 많은 산업 분야에서 AI 기술이 도입되고 일상 활용이 확산되고 있다. 하지만, AI 높은 효용성과는 반대로, 기술적 한계와 오남용 등으로 인해 환각, 편견과 차별을 야기하는 불공정, 개인정보 유출과 같은 문제가 대두되고 있다. AI 기술로 인한 위협으로부터 안전한 활용을 가능케하기 위해 AI 신뢰성을 확보하기 위한 노력들이 확산되고 있다. 세계 각국은 인공지능의 효용은 극대화하고 역기능 등은 최소화하기 위해 법제도적 기반과 통제방안 등을 마련하고 있고, 국제기관에서는 정책 보고서 및 신뢰할 수 있는 AI를 위한 지침들을 발표하고 있다. 기업들은 AI 시스템 개발에 있어 자체적인 원칙을 마련하거나 검증을 위한 방안을 수립하는 등 신뢰성을 고려한 전략을 추진하고 있다. 우리나라 또한 AI 국가 전략을 기반으로 다수의 전략과 실행 계획들을 발표하며 다양한 정책을 추진 중에 있는 만큼, 세계 주요국의 시의성 있는 동향을 파악하고 대응 할 필요가 있다. 3. 연구의 구성 및 범위 본 연구는 총 7개의 장으로 서론(1장)을 시작으로 주요국 AI 신뢰성 동향(2장), 국제기구(3장) 및 주요 기업동향(4장), 연구 및 표준 동향(5장)을 비롯하여 주요 AI 활용 산업별 동향(6장)과 시사점 및 결론(7장)으로 구성되어있다. 국내외 정부 및 국제기관 등의 언론, 공식 보도, 정책보고서와 같이 다양한 정보소스를 바탕으로 동향을 조사하여, △법제도 △기업/산업 △기술/연구 △인력/교육으로 이를 분류하였다. 본 연구에서는 한국을 포함하여 총 14개의 주요국을 다루고 있다. AI 관련 활동이 활발한 미국, EU, 영국, 중국, 일본, 캐나다를 포함하여 기타 주요국(독일, 프랑스, 호주, 스페인, 네덜란드, 싱가포르, 이스라엘)에 대한 동향을 바탕으로 국가별 AI 신뢰성 정책 동향을 기술한다. 산업별 AI 신뢰성 동향에서 고려하고 있는 산업은 크게 5가지로, AI의 도입이 활발한 △ICT △교육 △의료 △금융 △보안 산업에 해당한다. 기본적으로 2023년 이전의 정책적 흐름을 간략하게 다루고 있고, 주 조사 내용은 2023년 자료에 해당한다. 4. 연구 내용 및 결과 2017년부터 현재까지 50개국 이상에서 신뢰할 수 있는 AI를 위한 국가 전략 또는 정부 차원의 이니셔티브를 채택하였다. 이에 따라 국가 AI 정책 관리를 위해, 각 국 정부는 정부 조정기관, 위원회 설립 등을 통해 다양한 거버넌스 모델을 사용하고 있다. 현재 시의성 있는 동향 중 하나는 규제 정책이며, OECD AI 원칙과 국가 AI 전략 등을 바탕으로 규제 프레임워크를 만들고 있다. EU의 규제법안인 AI act는 2023년 말 합의가 된 만큼 추후 시행까지 동향을 추가적으로 파악할 필요가 있다. 대부분의 국가는 위험 기반의 규제 방식을 채택하고 있고, 고위험 AI에 대한 관리와 통제조치들을 집중적으로 다루고 있다. 우리나라의 AI 관련 입법안들은 AI 산업 발전을 위한 기반 마련에 초점을 맞추고 있고, 최근 들어 입법안에서 규제적 조치를 담고 있으나 아직 추가적인 논의가 필요한 상황이다. 세계적으로 AI의 신뢰성 확보가 더욱 중요해지고 있는 만큼, 주요국들은 적극적인 국가간 협력 체계를 구축하면서 다양한 논의를 진행하고 있다 OECD, UN, 유네스코 등은 꾸준히 인간 중심 접근방식에 중점을 두고 다양한 활동을 하고 있는데, OECD는 GPAI(Global Partnership on Artificial Intelligence), AI 거버넌스 작업반(AIGO) 등을 통한 국제 협력을 주도하고 있다. 이외에도 AI 책임성 향상에 관한 정책보고서, AI 규제 샌드박스 보고서 등 여러 정책 보고서 또한 발간하고 있다. G7 7개국은 히로시마 정상회담에서 히로시마 AI 프로세스를 출범하며 AI 국제 행동강령을 마련하였다. 이외에도 AI 안전 정상회의에서의 블레츨리 선언 등 대부분 생성 AI 기술 확산에 따른 위험성 증가에 대응하기 위한 움직임이 다수 존재하였으며, 국제 협력 규모가 더욱 확대되고 AI 거버넌스 등이 생기고 있는 추세다. 각 국 정부의 규제 움직임에 대해 기업 및 산업 부문에서는 과도한 규제에 우려하는 추세로, 기술 발전과 신뢰성 확보 측면에서 입장차가 존재한다. 명확한 규제가 존재하지 않는 현재, 기업들은 자율 규제 방식을 채택하고 최소한의 신뢰성 확보를 위해 개발 가이드라인이나 윤리 원칙 등을 수립하여 대응하고 있다. 향후 AI 서비스 및 SW 등에 인·검증이 본격적으로 전개될 것으로 예상되는데, 이와 관련한 국제 표준 선도에 대한 전략적 대응이 필요한 상황이며, 선제적 대응을 통해 이를 주도함으로써 선도적 입지 확보를 위한 투자가 필요할 것으로 보인다. 마지막으로 생성 AI 기술이 산업의 각 영역에 적용되고 혁신 도구로서의 가능성을 보여주고 있다. 특히 의료, 금융, 보안, 교육 등 분야에서 AI가 많이 활용되고는 있으나, 개인 및 사회에 영향력이 높은 만큼 엄격한 검증이 필요하다. 이에 도메인의 정제된 데이터를 이용해 생성 AI 기술의 신뢰성을 높이는 연구들이 진행되고 있음을 확인할 수 있었으며, 생성 AI의 잠재적 보안 취약성과 오남용으로 인한 피해에 대한 산업계의 면밀한 검토가 진행되고 있음을 파악하였다. 향후 다양한 산업 도메인과 영역에서 생성 AI 기술이 적용되기 위해서는 산업 특화된 데이터를 기반으로 생성 결과물의 신뢰성을 높이는 작업과 함께, 올바른 활용을 위한 지침과 규정이 보다 구체화될 것으로 예상된다. 5. 정책적 활용 내용 주요국의 AI 규제 입법안에서 위험을 통제하는 수단들은 데이터 관리, 위험 및 품질관리, 보안강화, 인간에 의한 통제조치, 투명성 확보와 이용자에 대한 정보제공 등으로 정리할 수 있다. 국가 및 기업들은 AI가 다루는 데이터의 방대함과 민감한 데이터의 사용 등에 따라 정보보안에 대한 요구사항이 많다. 시스템의 안정적 운영이나 오류를 방지하기 위해서도 정보보안이 강화되어야 하는데, 대부분의 법률안들은 사이버보안에 대해 특히 강조하고 있다. AI 시스템이 의도된 목적에 따라 적절한 수준의 정확성과 견고성, 사이버보안을 달성하고 수명주기 동안 일관되게 수행할 수 있도록 설계·개발될 것을 요구한다. 최근에는 AI 기술의 안전성에 초점을 맞춘 ‘AI 안전’이 더욱 중요해지고 있으며 다양한 가이드라인이 제안되고 있는 추세이다. 이외에도 EU 및 미국 등은 AI 시스템이 사용되는 동안 인간이 효과적으로 감독할 수 있도록 설계·개발되어야 하고, 시스템을 안전한 상태로 정지시킬 수 있도록 통제를 강조하고 있으며, 투명성을 확보할 것을 규정한다. 이를 위해 미국, 영국을 중심으로 AI안전, 신뢰를 확보하기 위한 거버넌스 체계도 정비되고 있다. 국가 최고지도자를 중심으로 인공지능 국가 전략을 수립 추진하고 있으며 관련해 AI안전연구소와 같은 전담연구조직을 설치해 기술 및 제도 기반 수립을 위한 연구에 힘을 싣고 있는 상황을 주시할 필요가 있다. 생성 AI의 기반이 되는 파운데이션 모델(foundation model)의 중요성이 커지는 만큼 이와 관련된 지침들이 추가적으로 정의되고 있다. 향후 생성 AI는 텍스트를 넘어, 다양한 이미지, 영상, 텍스트 정보들을 학습에 활용하고 다양한 형태의 결과물로 출력하는 이른 바 ‘네이티브 멀티모달’ 기술로 전개될 것으로 예상된다. 따라서 데이터, 콘텐츠 산업 전반에 있어 영향이 커질 것으로 예상되는 가운데 관련 지적재산권, 오남용으로 인한 사회적 피해와 혼란에 대한 선제적 대응이 필요하다. 일례로, 딥페이크와 같은 기술은 배포, 게시 금지와 같은 규제와 처벌 규정들이 도입되고 있다. 이처럼 앞으로의 AI 신뢰성 정책을 수립함에 있어, 생성 AI를 비롯하여 급격히 발전하고 있는 AI 기술을 포괄적으로 수용할 수 있는 기반을 마련해 둘 필요가 있다. 기술과 서비스 변화에 따라 AI 산업 전반에 관여하는 구성원 또는 참여자가 달라지는 환경을 고려하여 구성원 간 관계, 개별 구성원이 준수해야 하는 의무들에 대한 지속적 논의가 필요하다. 또한 주요국들은 빠르게 인공지능의 위험성을 통제하는 수단들을 고민하고 적극적으로 입법화를 시도하는 만큼, 우리나라도 신업 진흥 및 기술 발전 이외에도 국내 규제 법안 마련에도 집중할 필요가 있다. 산업 및 시장 구조와 환경 변화에 대응하는 규제조치를 포함하여 데이터 관리와 차별 방지 의무화, 품질관리와 위험관리, 사이버보안과 회복력 확보, 인간에 의한 통제가능성 확보, 기술문서 작성과 기록관리 의무, 사용자 권리 보장과 국가의 감독기능 강화 등 다양한 규제수단들이 매우 구체적으로 제시되고 있는 만큼 적극적으로 이러한 조치들을 참조할 수 있을 것으로 판단된다. 6. 기대효과 본 연구에서는 국내외의 주요 AI 신뢰성 정책 사례를 조사하고 다양한 관점에서 이를 분석하였다. 법제도, 기업 및 산업, 기술 및 연구, 인력 및 교육 분야로 구분하여 넓은 범위에서 시의성 있는 사례들을 포함하여 의미 있는 움직임들을 파악할 수 있다. 또한 분석을 통해 현재 주요국의 규제에 대한 움직임, 기업들의 대응 방법, 주요 AI 활용 산업 분야에서의 신뢰성 이슈 등에서 시사점을 도출하여 방향성을 제시하고 있다. 이러한 국가별, 산업별 정책 현황 자료 및 분석 결과는 앞으로의 새로운 국내 AI 신뢰성 정책 수립에 있어 참고 자료로서 활용 될 수 있을 것으로 기대된다.

  • ChatGPT의 등장과 함께 생성 AI 생태계 주도권 확보를 위한 경쟁이 갈수록 치열해지고 있다. 빅테크 기업들은 보다 저렴한 비용으로 고품질의 인공지능 서비스를 제공하기 위한 전략으로 생성 AI 생태계의 가치 사슬을 수직 통합하는 방향을 택하고 있다.(후략)

  • 그간 SW 안전은 사람의 신체적, 물리적 피해를 유발할 수 있는 분야를 중심으로 발전해 왔다. 그러나 SW의 영향력은 급격하게 확장되고 있다. SW 신기술로 볼 수 있는 인공지능, 블록체인, 메타버스 등은 세상을 혁신시키는 핵심 기술로 부상하고 있으나, 그 이면에는 다양한 사건 사고가 존재한다. 이러한 사고는 비단 신체적, 물리적 피해를 넘어 정신적, 경제적 피해를 유발시키고 있다. (후략)

  • 인공지능의 확산은 인공지능 윤리 및 신뢰성 이슈를 발생시키며 사회적 문제를 야기하였다. 이에 국내외 정부 및 기업, 국제 기관, 학계 등 전방위적으로 대응 정책을 마련중에 있다. 국내외 주요 정부와 국제 기관 등에서는 윤리적 인공지능 및 신뢰할 수 있는 인공지능 개발을 위한 권고안, 정책 보고서를 발간하고 있으며 주요 기업들 또한 신뢰할 수 있는 인공지능 개발을 위하여 기업 윤리 원칙 수립과 신뢰성 검증 도구 등의 개발을 촉진하고 있는 상황이다. 국내 또한 인공지능 신뢰성 확보를 위해 신뢰할 만한 인공지능 실현 전략 등을 추진하고 있다. 이렇듯 시의성 있는 정책 대응 방안 마련이 필요한 시점에서 인공지능 신뢰성 확보를 위한 국내외 정책 동향을 조사하고 분석하여 국내 인공지능 정책 고도화를 위한 시사점을 제공하고자 한다. (후략)

  • ChatGPT는 자연어를 이해하기 위해 방대한 양의 데이터로 훈련된 대규모 언어모델(LLM)로 출시 두 달 만에 1억 명의 가입자를 모으며 산업의 게임체인저로 부상했다. ChatGPT로 대표되는 언어모델을 포함한 다양한 생성 AI 모델은 높은 수준의 성능을 보여주며 검색 시장을 비롯해 다양한 산업에 영향을 미치고 있으며 크게 세 가지 분야에서 변화를 일으키고 있다. (후략)

  • 2023년 4월 3일 스탠퍼드大 인간중심 인공지능 연구소는 AI Index 2023 보고서를 발간했다. 보고서는 연구개발, AI 기술 성능, AI 기술 윤리, 경제, 교육, 정책·거버넌스, 다양성, 여론 등 8개의 장으로 구분하고 글로벌 데이터와 보고 자료들을 심층 분석하여 핵심 내용을 정리하였다. (후략)

  • 목차 Table of Contents

    ㅇ Stanford HAI AI Index 2023 개요 ㅇ AI 연구 개발: 중국 대학 주도의 양적 질적 성장세 지속 ㅇ AI 기술 성능: 전반적 기술 성능이 벤치마크의 정점에 도달, 윤리성 검증 노력도 증가 ㅇ AI 경제: AI 고용 수요는 여전히 증가세이나 투자와 활용률은 주춤 ㅇ AI 교육: AI가 초중등 교육에도 활용되는 등 AI 교육 보편화 ㅇ AI 거버넌스 및 정책: AI전략 수립은 정점을 지났고 AI 입법 활동은 증가 ㅇ AI분야의 다양성: AI분야에서의 성별·인종별 격차가 존재하지만 감소 추이 ㅇ AI관련 여론: AI를 긍정적으로 인식하는 경향이 비교적 우세

  • 목차 Table of Contents 1. 국내외 정책ㅇ미국 국립표준기술연구소(NIST), 인공지능 위험 관리 프레임워크 발표ㅇ 중국, ChatGPT 확산을 경계하는 인공지능 규제 도입 시사ㅇ 유럽, 인공지능 사용 확대에 따른 프라이버시 규제 당국 감시 강화ㅇ ChatGPT 사용 증가에 따른 AI 윤리 규제 필요성 대두 2. 기업·시장 동향ㅇ 구글, MusicLM을 통해 텍스트 기반 음악 생성 도구 상용화 가능성 시사ㅇ 디지털 검열에 따른 중국내 AI 기업의 정보 왜곡 우려 대두ㅇ 윤리적이고 책임감 있는 AI가 비즈니스 성공 열쇠로 부상 3. 고용·인력 동향ㅇ 채용AI, 편향성 우려로 여전히 활용엔 제한적으로 평가ㅇ 워싱턴포스트紙, AI알고리즘 해고 대상 선정 도구로 활용 편중 지적ㅇ 저널리즘에서 윤리적, 고용 문제를 야기하는 인공지능 사용 4. 기술·연구 동향ㅇ MIT 연구진, 폐암 위험을 감지할 수 있는 AI 모델 개발ㅇ 스탠포드大, 정치로비스트를 대신하는 ChatGPT 잠재력 연구ㅇ 브리티시컬럼비아大,AI로 의사 소견서를 분석하여 암 환자 생존 여부 예측ㅇ 美·中 연구진, 메타 LLAMA 기반 의료 챗봇 ChatDoctor 연구 결과 소개

  • 최근 ChatGPT의 등장은 산업 및 사회적으로 큰 파급력을 보이고 있다. 공개 두 달 만에 월 1억 명이 넘는 사용자 수를 확보했다. ChatGPT는 기존 GPT시리즈의 최신 버전으로 1,750억 개의 파라미터를 갖추고 문서요약, 프로그래밍, 보고서 작성 등 사람 수준의 결과를 생성하는 대화형 언어모델이다. 애초 자연어처리를 목적으로 하는 언어모델이 점차 발전하여 초거대 인공지능(AI)이 되고, 이제 범용성까지 갖추는 상황에 도달했다. 글로벌 주요 기업들은 이 초거대 AI 시장을 선점하기 위해 다방면으로 각축전을 벌이고 있다. 한편, 오늘날의 초거대 AI는 분명 기술적 혁신을 이룩했지만, 여전히 많은 과제를 안고 있다. 이 보고서에서는 ChatGPT를 중심으로 대규모 언어모델의 기술적 변화양상과 특징, 활용성, 한계점 등을 짚어보고, 산업 및 사회적 영향력과 향후 방향을 논의해보고자 한다. Executive Summary The recent appearance of ChatGPT is showing a great ripple effect on the industry and society. Within two months of its release, it has attracted over 100 million monthly users. ChatGPT is the latest version of the existing GPT series, an interactive language model with 175 billion parameters that generates human-level results such as document summarization, programming, and report writing. Originally designed for natural language processing, the language model has gradually evolved to become a hyper-scale artificial intelligence(AI) and has now reached the point of universality. Major global companies are competing to dominate this market. Meanwhile, while today's hyper-scale AI is certainly a technological breakthrough, it still faces many challenges. In this report, we will examine the technological changes, features, utility, and limitations of large-scale language models(LLMs), focusing on ChatGPT, and discuss their industrial and social impact and future directions.

  • 목차 Table of Contents 1. 국내외 정책 ㅇ 미국, 국가 인공지능연구자원(NAIRR) TF 최종 보고서 발표 ㅇ EU의 인공지능법, 생성AI 규제에 영향을 줄 것으로 전망 2. 기업·시장 동향 ㅇ 마이크로소프트, OpenAI에 100억 달러 추가 투자 결정 ㅇ 게티 이미지, 저작권 침해로 AI 이미지 생성기 개발사 스태빌리티AI 고소 ㅇ TechEU, 영화 제작에서 생성 AI 활용에 따른 혼란과 윤리 이슈 제기 ㅇ Moonshot, 사진 및 텍스트 생성 AI 관련 윤리 및 저작권 문제 제기 3. 고용·인력 동향 ㅇ 구직 및 경력 관리 도구로서 ChatGPT 활용 방안 ㅇ 마케팅 회사 코드워드(Codeword), 세계 최초 AI 인턴 채용 4. 기술·연구 동향 ㅇ 美 프리스턴 대학생, AI가 에세이를 썼는지 판별하는 앱 개발 ㅇ MIT, 美 공군 요원에게 AI 기초 교육 가능한 프로그램 개발 ㅇ 2023년 ICML 논문 제출에 ChatGPT 사용 금지 ㅇ ChatGPT, 사이버 범죄에 악용 가능성 확대

  • 목차 Table of Contents 들어가며 (Introduction) 1. AI의 위대한 변곡점 (AI’s Great Inflection Point) 2. 합성 환자의 잠재력 (The Potentials of Synthetic Patients) 3. 의료 서비스 개선, 환자 관리에서 비용 청구까지 (Upending Healthcare, from Patient Care to Billing) 4. 자연을 들여다보는 AI의 창 (An AI Window into Nature) 5. 일상 생활의 새로운 도구 (The New Tools of Daily Life) 6. 시는 최적화되지 않을 것: AI 시대의 창의성 (Poetry Will Not Optimize: Creativity in the Age of AI) 7. 생성 AI와 법치주의 (Generative AI and the Rule of Law) 8. 新캄브리아기: ‘과학적 흥분과 불안’ (The New Cambrian Era: ‘Scientific Excitement, Anxiety’) 9. 작업자들을 위한 증강(자동화가 아닌) (A Call to Augment – Not Automate – Workers) 10. 노동의 재발명 (The Reinvention of Work) 11. 교육계 ‘진행중인 재앙’ (In Education, a ‘Disaster in the Making’) 12. 교육 시스템의 불평등 해결 (Solving Inequalities in the Education System)