[전문가기고] 인공지능 글로벌가이드라인 동향
  • SPRi
날짜2019.12.25
조회수2936
글자크기

인공지능 글로벌가이드라인 동향

※ 이 글은 호서대학교 인공지능융합학부 배지은 교수의 기고를 받아 작성되었습니다

산업 혁명이라는 증기 기관을 중심으로 시작된 혁신은 인간의 물질적 풍요를 급격히 격상시켜 다양한 파급 효과와 함께 비약적으로 글로벌 경제 활동을 변화시켜 왔다. 최근 4차산업혁명이라는 이름으로 가장 뜨거운 이슈가 되고 있는 것은 AI 분야이다. 세계 지적 재산권기구(WIPO)의 특허 출원 분석 및 기술 동향(2019)에서도 인공 지능은 두드러진다. Center for Data Innovation(2019)AI패권 전쟁을 주제로, 미국과 중국, 유럽의 AI 경쟁력을 6-matrix (talent, research, development, adoption, data, hardware)로 나누어 AI 경쟁력을 분석했다. AI 수준을 좌우하는 알고리즘과 컴퓨팅 파워에서 절대 우세를 갖는 미국의 GAFA13억 명이라는 방대한 인구 데이터를 가지고 있는 중국의 BATEU의 다양한 산업체의 협업사례에 대해 연구했다. 물론, 인류의 역사는 새로운 혁신과 함께 사회적, 경제적 활동도 크게 변화해 왔다.

혁신은 긍정적인 효과뿐만 아니라 급격한 경제 변화에 따른 다양한 사회 문제도 발생시킨다. 인간은 AI로 대체되는 것은 아닐까 하는 논의와 함께 인공 지능 (AI)에 많은 사람들이 불안감도 고조되고 되면서, AI의 윤리적 문제에 대한 이슈도 점차 확대되고 있다. 이러한 상황 속에서 각 정부 기관과 단체에서 AI의 연구 개발과 활용에 관한 규정 또는 지침에 대한 가이드라인이 발표되고 있다. 대표적인 사례는 다음과 같다.

1. EU 유럽의 경우, EU coordinated plan on AI(2018)에서 유럽은 최첨단의 윤리적이고 안전한 AI를 개발하는 세계 최고의 지역을 목표로 한다고 밝히고, 개인 정보 보호를 위한 일반 데이터 보호 규칙 (GDPR) 시행 등 기준 및 제도 정비에 집중하고 있다. EU2018년도 출범한 AI 고위급 전문가 그룹 (AI High Level Expert Group, AI-HLEG)의 신뢰할 수 있는 AI (TrustworthyAI)에 대한 윤리 지침에서 유럽의 AI는 인간 중심의 접근으로 신뢰할 수 있는 AI, AI의 위험을 최소화하면서 혜택의 극대화를 목표로 한다고 발표했다. 4개의 윤리 원칙과 실현을 위한 7개의 요구 사항. 운용성 평가를 위한 22가지 체크리스트로 이루어져 있다. 특히 요구사항 항목에 책임 있는 데이터 이용, 만인을 위한 시스템 설계, 인간에 의한 AI 감시, 차별 방지, 개인 정보의 존중, 인간의 자기 결정권 존중 시스템의 견고성, 안전성, 투명성을 들어 그 각 요구 항목을 구체적으로 제시하고 있다.

2. IEEE(Institute of Electrical and Electronics Engineers) 미국 IEEE2019, 개발자가 인간에게 혜택을 제공하는 기술의 진보를 촉진할 수 있도록 EAD (Ethically Aligned Design)를 공개하고, 프로젝트 (P70xx)를 진행하고 있다. IEEE2019Ethically Aligned Design (EAD)를 발표했다. 3가지 개념과 8가지 항목으로 구성되어 있다.

3. 중국 (The Beijing AI Principles) 중국은 The Beijing AI Principles에서 사회와 인간 문명의 진보를 촉진하고 자연과 사회의 지속 가능한 발전을 추진한다고 밝혔다. 세부조항으로 AI의 발전은 인간의 가치관을 준수하고, 사람들의 프라이버시, 존엄성, 자유, 독립성 및 권리를 충분히 고려하여야 하며, 사람에게 대항하거나 해치는 데 사용되선 안된다는 내용과 개발자는 충분히 고려하여 가능한 윤리적, 법적, 그리고 사회적인 위험과 위험을 관리하고 해결하기 위해 최선을 다해야 한다는 내용이다.

위에서 살펴본 AI 가이드라인의 공통점은 다음과 같다.

  • 첫째, 인간 중심의 AI의 실현, AI가 인간과 사회에 유익하도록, 인간의 사회적· 도덕적 규범에 상충되는 AI를 구현할 것을 개발자에게 촉구하고 있다.
  • 둘째, 안전성 확보와 설명할 수 있는 AI(eXplainable AI, XAI)AI의 블랙 박스 문제점을 보완하기 위한 공정성 확보 논의이다. 인간을 대신하여 AI가 판단한다고 가정했을 때, 문제 발생 시, 각 공정에서 적절한 조치를 취하고 온 것을 대외적으로 설명해야 한다는 것이다. IEEE의 경우, 시스템의 기술적 특성에 대한 정보 제공 및 설명을 이용자 등에 대해 다양한 이해 관계자의 적극적인 참여를 얻는 것을 개발자의 양심에 맡기는 반면, EU는 사안에 따라 문제 발생시 책임소재나 제 삼자와 직원이 취약점이나 편견 등의 문제를 보고해야 하는 프로세스를 통한 통제와 책임의 소재까지 다루고 있다.
  • 마지막으로, 최근 데이터 3법과 더불어 논란이 되고 있는 개인 데이터 및 개인 정보 보호이다. EU 일반 데이터 보호 규칙 (GDPR) 기존의 개인 정보 보호 규정의 준수와 함께 개인정보에 대한 이슈는 점차 확대되고 있는 추세이다.

새로운 혁신은 지금까지 국가 간 경제적 힘의 균형에 대해 큰 변화를 가져올 수 있다. 과거 일본의 자동차 기업이 저연비 자동차의 개발에 성공하여 세계적으로 기술 우위를 선점하고, 세계 자동차 시장을 석권 한 것처럼 자동 운전 자동차의 개발은 자동차 산업에서 각국의 기술 우위성을 크게 바꿔 놓을 수 있다.

AI 산업의 활성화를 위해서는 기초 연구와 개발을 추진하는 동시에 AI활용 분야를 개척해 나가야 한다. 가장 먼저 선행되어야 할 부분은 AI 신뢰를 조성하는 방안을 추진하는 것이 필요하다. 개발자와 이용자뿐만 아니라, 정부와 업계 단체 등을 포함한 관련 이해 관계자가 AI의 개발 및 활용의 촉진과 AI 네트워크화의 건전한 발전을위한 생태 환경 조성을 위한 부단한 노력이 필요하다. 어떻게 인공 지능의 개발과 보급을 촉진하고 글로벌 경제 변화에 대응할 수있는 체제를 구축해야 하는지에 대한 논의 뿐 아니라, 위에서 언급한 윤리적 문제에 대해 개발자들의 윤리의식 정립과 다양한 이해관계자들의 동종의 협의 형성과정도 조속히 풀어야 할 과제이다.