인공지능이 고도화될수록 인간의 사적 영역은 인공지능에 의해 점유되고 있다. 그러나 현재의 인공지능은 기술적으로 완벽하지 않기 때문에, 이러한 사회적 변화는 인공지능에 대한 막연한 두려움을 유발하거나, 때로는 실제로 물리적인 피해를 야기하기도 한다. 이러한 시점에서 인공지능 윤리의 중요성이 사회 전반적으로 크게 확산되고 있는 추세이다. 인공지능 윤리는 인간과 기계가 함께 공존하기 위한 중요한 철학이며 더 안전하고 편안한 삶을 위한 토대가 된다. 따라서 인공지능 윤리에 대한 관심, 이해, 확산이 더욱 요구된다.

인공지능의 윤리적 가치에 대한 논의 증가

인공지능의 확산과 더불어 인공지능의 윤리적 가치에 대한 논의가 지속적으로 커져가고 있다. 가장 잘 알려진 윤리적 이슈는 ‘트롤리 딜레마(Trolley Dilemma)’1이다. 인공지능이 사회 전반에 자연스럽게 적용되기 위해서는 이와 같은 답하기 어려운 윤리 문제에 대해서도 대응체계를 갖추고 법제화되는 것이 매우 중요하다. 그러나 현재까지는 명확한 원칙이나 가이드라인 표준이 존재하지 않는 것이 현실이다.

미국의 인공지능 데이터 전문 기업 Figure Eight에서 발간한 2017 Data Scientist Report2에 따르면 “인공지능 윤리와 관련하여 당신은 어떤 이슈를 중요하게 생각하는가?”에 대한 질문에 대해서 63%의 사람들이 “기계학습에 인종, 종교와 같은 인간의 편견이 프로그램 되는 것”이라고 응답하였다.

<표 1> 인공지능 윤리와 관련한 이슈 리스트
번호 이슈 내용
1 인간의 작업영역이 기계로 대체되는 것
2 기계학습에 인종, 종교와 같은 인간의 편견이 프로그램 되는 것
3 자율주행 자동차와 트롤리 문제/안전관련 이슈들
4 건강 관리 인공지능과 필연적/유전적 질병 예측에 대한 기밀성
5 전쟁에서의 인공지능과 자동화의 사용
6 공통적으로 합의되어야 하는 도덕성 프로그래밍

그림 1 인공지능 윤리와 관련한 이슈 설문 결과(2017 Data Scientist Report)
<그림 1> 인공지능 윤리와 관련한 이슈 설문 결과(2017 Data Scientist Report)

위와 같은 이슈에 대한 명확한 정답을 찾기는 어려우므로, 인공지능이 인간의 윤리적 가치를 합리적으로 반영하기 위한 다양한 시각의 분석과 논의가 중요하다. 이러한 맥락에서 인공지능 선두주자에 있는 여러 대학, 연구소, 산업체 등에서는 인공지능과 윤리에 대한 가치 확산과 공론화에 힘쓰고 있다. 일찍이 2014년 미국 스탠포드 대학에서는 “인공지능 - 철학, 윤리, 영향력(Artificial Intelligence - Philosophy, Ethics, and Impact)” 과목을 편성하여 인공지능과 윤리에 대한 논의가 교육과정으로 진행되었고, 하버드 대학에서는 2019년 현재 컴퓨터 과학 전공 과정 내에 “Embedded ethiCS”3 과목을 편성하여 컴퓨터 과학과 철학을 주제로 인공지능 윤리 문제에 활발히 접근하고 있다.

이 시점에서 우리는 인공지능 윤리에 대한 사회적 확산 동향을 살펴보고, 그 과정에서 인공지능 윤리가 어떠한 가치를 중심으로 논의되고 있는지 파악해본다.

인공지능 윤리의 주요 쟁점과 가치 확산

전자 전기 학회(이하, IEEE)4는 2016년 “Ethically Aligned Design”5이란 제목의 문서를 발표한 바 있다. 이 문서는 인공지능 관련 윤리 지침을 다루는 국제 기술자단체 최초의 기초 문서이다. 정부, 기업, 학술단체 등이 함께하며 인공지능, 법, 윤리, 철학 정책 관계자들 100여 명이 참여했다는 점에서 큰 주목을 받았다. 이 문서에 의하면 인공지능 윤리에서 다루는 가장 큰 주제는 사람과 인공지능(기계) 간의 신뢰이다. 이와 관련하여 인권(Human Rights), 책임(Responsibility), 투명성(Transparency), 교육(Education)으로 대표되는 네 가지 쟁점을 중요한 요소로 강조하였다. Ethically Aligned Design에서, 그동안의 인공지능은 인류의 보편적 가치보다는 특정 계층의 이익에 집중되어 왔다고 지적하였으며, 이러한 편중은 개인 간의 갈등을 일으키는 요인으로 작용해 왔다고 우려하였다. 인공지능 윤리와 관련한 논의는 과거부터 있었으나, IEEE와 같은 표준 개발기구의 움직임으로 인해 더욱 활발히 진행되기 시작하였다. ACM6에서도 2018년 6월 컴퓨팅 전문가 윤리 강령 “Code of Ethics”7를 발표하여 이러한 흐름에 동참하였다.

인공지능 윤리는 인공지능 연구자뿐 아니라 인공지능이 접목되는 다양한 분야에까지 강조되는 추세이나, 사회 전반적으로는 아직도 인식이 미흡하다. 따라서 다양한 연구기관, 대학, 산업체 등에서 인공지능 윤리에 관한 가치 확산에 집중하고 있다.

유럽 연합의 보편적 이익을 대변하는 초국가적 기구 European Commission8에서는 ‘신뢰할 수 있는 인공지능을 위한 윤리 가이드라인(Ethics Guidelines for Trustworthy AI)’을 발표하였다. 높은 수준의 인공지능 전문가 그룹을 구성하여 2018년 12월 가이드라인 초안을 공개하고, 500여 개 이상의 논평을 수렴하여 2019년 4월 최종 결과 보고서를 공개하였다. [표 2]는 공개된 윤리 가이드라인의 요약이며, 3가지 대표 가이드라인과 7가지 핵심 요구사항들을 포함한다.

<표 2> 신뢰할 수 있는 AI를 위한 윤리 가이드라인 요약(European Commission, 2019.4.)
구분 내용
1. 합법적(Lawful) 관련 법률 및 규정을 모두 준수하여 합법적이어야 함
2. 윤리적(Ethical) 윤리적이어야 하며 윤리적 원칙과 가치에 순응해야 함
3. 강인함(Robust) AI 시스템은 좋은 의도였다 하더라도 예기치못한 해를 유발할 수 있으므로, 기술적, 사회적 관점에서 견고해야 함
핵심 요구사항
핵심 요구사항
  • ▪ Human Agency and Oversight : 인공지능 시스템은 인간에게 권한을 부여하여 인간이 정보에 입각한 결정을 내리고 기본 권리를 보장받을 수 있도록 해야 함
  • ▪ Technical Robustness and Safety : 인공지능 시스템은 안전해야 하며, 잘못된 상황에 대한 대비책을 마련하고, 정확하고 신뢰할 수 있으며 재현 가능해야 함
  • ▪ Privacy and Data Governance : 프라이버시 및 데이터 보호에 대한 완전한 존중을 보장해야 하고, 데이터 품질, 무결성, 합법적 액세스를 위한 적절한 관리가 보장되어야 함
  • ▪ Transparency : 데이터, 시스템 및 AI 비즈니스 모델은 투명해야 하고, 이해 관계자에게 적합한 방식으로 설명될 수 있어야 함
  • ▪ Diversity, Non-Discrimination and Fairness : 취약 집단의 소외, 차별을 야기할 수 있는 불공정한 편견은 반드시 피해야 함
  • ▪ Societal and Environmental Well-Being : 인공지능 시스템은 미래 세대를 포함하여 모든 인간에게 이익이 되어야 함. 지속 가능하고 환경 친화적이어야 함
  • ▪ Accountability : 인공지능 시스템과 결과물에 대한 책임을 보장하기 위한 메커니즘을 마련해야 함.

그 외 미국, 인도, 영국, 프랑스, 싱가포르 등에서는 인공지능 윤리위원회 설립 및 인공지능과 데이터 기술의 윤리적 인식 재설계를 위한 모델 및 시스템을 구축하고 있다.9

<표 3> 주요 국가들의 인공지능 윤리 관련 활동 동향
국가명 주요 내용
미국
  • ▪ AI의 윤리적, 법적, 사회적 의미 연구
  • ▪ 윤리체계 구축 : 학계와 협력하여 윤리 및 보안 커리큘럼 구축
  • ▪ 안전기준 마련
중국
  • ▪ 안전기준 마련
인도
  • ▪ 윤리위원회 설립, 윤리행동강령 신설, 적용
영국
  • ▪ 데이터 윤리체계 구축 및 AI 인식 재설계
프랑스
  • ▪ AI 관련규정 : 대통령 주도 아래 유럽의 AI 관련 규정 개발 주도
  • ▪ AI 기술의 투명성 확보를 위한 모델 및 UI 생산
  • ▪ 윤리위원회 설립
싱가포르
  • ▪ 윤리체계 구축 : 정부, 업계, 학계 및 대중과의 소통을 통한 체계 구축

기업의 인공지능 윤리 확산 동향

주요 IT 기업들은 선도적으로 인공지능 윤리 확산을 위한 기업 윤리 헌장들을 발표하는 추세이다. 마이크로소프트는 “인공지능 윤리 디자인 가이드”10를 발표하였고, 구글은 “인공지능 윤리원칙”11을, IBM은 “기업이 신뢰할 수 있는 인공지능”12을 발표하여 각 기업 마다 저마다의 윤리 원칙을 내세우고 있다.

국내 기업에서도 이러한 움직임이 확산되고 있으며 [표 4]는 2018년 카카오에서 발표한 윤리 헌장 내용을 보여준다.

<표 4> 국내기업 인공지능 윤리헌장 사례(카카오, 2018.1.)
구분 내용
1. 카카오 알고리즘의 기본 원칙 카카오는 알고리즘과 관련된 모든 노력을 우리 사회 윤리 안에서 다하며, 이를 통해 인류의 편익과 행복을 추구한다.
2. 차별에 대한 경계 알고리즘 결과에서 의도적인 사회적 차별이 일어나지 않도록 경계한다.
3. 학습 데이터 운영 알고리즘에 입력되는 학습 데이터를 사회 윤리에 근거하여 수집·분석·활용한다.
4. 알고리즘의 독립성 알고리즘이 누군가에 의해 자의적으로 훼손되거나 영향받는 일이 없도록 엄정하게 관리한다.
5. 알고리즘에 대한 설명 이용자와의 신뢰 관계를 위해 기업 경쟁력을 훼손하지 않는 범위 내에서 알고리즘에 대해 성실하게 설명한다.

인공지능 윤리 확산을 위한 대학 교육

대학에서는 인공지능 윤리 관련 교과과정을 개설하여 가치 확산에 힘쓰고 있다. 하버드 대학교에 개설된 “Embedded ethiCS” 과목은 컴퓨터 과학 전공자를 대상으로 윤리적 합리성에 대한 교육을 진행하고 있다. 해당 교육에는 총 5명의 교원이 투입되어, 컴퓨터과학 전공 교수 2명, 철학 전공 교수 2명, 신경 과학 전공 교수 1명으로 구성된다. 이 과목에서 다루는 인공지능 윤리 교육의 전략은 표준 컴퓨터 과학 과정 전반에 걸쳐 윤리를 직접 도입하는 분산 교육 방식으로, 각각의 컴퓨터 과학 교육 코스에 대하여 윤리적 추론을 통합한다. 예를 들면 대규모 분산 컴퓨팅 시스템 수업에서 기본적인 컴퓨팅 내용을 학습하고, 철학 담당 교수가 코스에 참여하여 프라이버시 문제를 탐구하는 방식이다. Embedded ethiCS에서 다루는 컴퓨터 교육과 철학의 융합 사례는 다음과 같다.

<표 5> Embedded ethiCS에서의 컴퓨팅 윤리 교육 사례
컴퓨터 과학 주제 철학 주제
대규모 분산 시스템 시스템 설계상에서 프라이버시 문제 탐구
프로그래밍 언어 기능뿐 아니라 윤리에 대한 검사와 검증(Verification and Validation) 방법 고려
인간과 컴퓨터 상호작용 시각 장애 사용자에 대한 시스템 설계 여부 논의
기계 학습 기계 학습에서 나타날 수 있는 부주의한 차별 사례 논의
컴퓨터 네트워크 페이스북, 가짜뉴스 등 소셜 미디어 플랫폼에 대한 검열 문제 탐구
시스템 프로그래밍과 머신 구조 ASCII, Unicode와 윤리적 자연어의 표현법 논의
시스템 보안 보복 해킹에 대한 정당방위 논의

또 다른 사례로 중국과학원대학교13에서는 “인공지능의 철학과 윤리(Philosophy and Ethics of Artificial Intelligence)”14 과목이 2017년 이후로 지속적으로 운영되고 있으며 철학과 윤리학 관점에서 인공지능의 역사, 현재, 미래를 탐구한다. 이 과목에서는 인공지능이 인간과 기계에 미치는 영향을 분석하고, 잠재적 위험 방지를 위한 다양한 주제를 다루고 있다.

<표 6> 중국과학원대학교 “인공지능의 철학과 윤리” 강의 내용
주차 주제
1 인공지능의 철학과 윤리에 관한 역사
2 인공지능의 본질과 미래
3 기계적인 뇌와 윤리
4 언어 및 지식 이론
5 인간의 인식과 자각의 철학
6 뇌의 컴퓨팅적 모델 철학과 뇌에서 영감을 받은 인공 지능
7 기계 감정, 의식 및 윤리
8 자율 무기에 대한 윤리
9 도덕적 기계와 도덕적 인간-기계 사회
10 인공지능 원리와 윤리의 국제적 노력과 한계

이러한 교육 동향은 인공지능 윤리 교육의 내용과 방향성을 잘 보여주고 있다. 두 사례를 비교 하자면 전자의 경우는 실질적인 과학-윤리 융합과 적용 훈련을 목표로 하며, 후자의 경우는 윤리의식 함양을 위한 지식체계 전달을 목표로 하고 있다. 이는 학생 단계에서부터 인공지능 윤리 의식을 충분히 갖게 하기 위한 대학들의 노력으로 볼 수 있다.

시사점

인공지능 윤리의 중요성은 점차 커지고 있으며, 이미 각 국가와 연구기관 또는 기업들마다 인공지능 윤리를 체계화하기 위한 노력을 하고 있다. 지금까지의 동향으로 볼 때 사회적 확산은 잘 진행되고 있는 것으로 보인다. 그럼에도 대부분의 인공지능 윤리가 다루는 내용은 대동소이하며, 추상적인 원론에 가까운 윤리적 정의가 다수 포함되어 있음을 알 수 있다.

인공지능은 데이터를 기반으로 동작하기 때문에 데이터 내부에 특정 상황 의존적인 편향이 존재한다면 이를 바로잡을 제도적인 장치가 필요하며, 그 기준은 인간 중심적인 철학에서 출발해야 한다. 이는 다양한 상황에 대한 가정, 인본주의적 사고, 기술적인 지원 등이 복합적으로 이루어져야 하므로 쉽게 해결될 사안이 아니다. 다만 하버드 대학교의 윤리 교육 사례는 좋은 방향을 제시해 준다. 기술 구현 단계에서 발생할 만한 기초적인 사례들부터 인간 중심적인 태도로 차근차근 논의하고, 다양한 분야의 전공자들과 함께 응용 사례를 더욱 발굴하고 토론해 나가면, 인간과 기계가 함께 공존하기 위한 윤리적이고 합리적인 지식체계가 축적될 수 있을 것으로 예상해 본다.

  • 1 자율주행과 관련한 기계의 도덕적 의사결정과 관련한 문제로서, 예를 들어 성인과 어린이를 태운 자율주행차가 전방 보행신호를 무시한 노인을 발견했을 때, 노인을 희생시킬 것인지 방향을 틀어 승객을 죽게 할 것인지 의사결정 해야 하는 상황에 대한 딜레마를 의미한다.
  • 2 https://www.figure-eight.com/download-2017-data-scientist-report/
  • 3 https://embeddedethics.seas.harvard.edu/
  • 4 Institute of Electrical and Electronics Engineers(IEEE). 전기전자공학, 컴퓨터공학 전문가들의 국제조직
  • 5 https://ethicsinaction.ieee.org/
  • 6 Association for Computing Machinery(ACM). 전 세계적인 규모의 컴퓨터 분야 학회 연합체
  • 7 https://www.acm.org/code-of-ethics
  • 8 https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai
  • 9 주요국 인공지능 정책 동향 분석, 과학기술정보통신부, 2018.11.
  • 10 https://www.microsoft.com/en-us/ai/our-approach-to-ai
  • 11 https://ai.google/principles/
  • 12 https://www.ibm.com/watson/kr-ko/ai-ethics/
  • 13 중국 국립 자연과학연구소인 중국과학원 내의 2개의 대학교 중 하나임. 중국과학기술대학교와 중국과학원대학교 (University of Chinese Academy of Sciences, https://english.ucas.ac.cn/)가 있음
  • 14 http://bii.ia.ac.cn/peai/

키워드 인공지능 월간SW중심사회 2019년 7월호