인공지능에 대한 사회적 우려와 업계의 대응

  • 조원영SW기반정책·인재연구실 실장
날짜2019.04.19
조회수31309
글자크기
    • 인공지능, 빅데이터 등의 디지털 기술이 널리 활용됨에 따라 알고리즘의 편향성, 개인정보 침해 등 사회적 부작용에 대한 우려의 목소리가 커지고 있다. 이에 대해 인공지능 업계는 △인공지능 개발자가 준수해야 할 윤리 원칙 마련, △인공지능의 사회적 영향을 전담하는 부서 설치, △인공지능을 활용해 사회에 기여하는 프로젝트 수행 등의 노력을 기울이고 있다. 국내 업계의 경쟁력을 강화하는 동시에 연구 활동을 위축시키지 않는 인공지능의 사회적 역할 강화 전략이 필요하다.
  • 디지털 기술의 사회적 부작용에 대한 우려 고조
    • 인공지능, 빅데이터, 인터넷 등 디지털 기술의 부정적 영향을 우려하는 목소리가 커지고 있다. 미국 정책연구기관 퓨리서치센터(Pew Research Center)가 2018년 5월 미국 성인 4,594명을 대상으로 수행한 인공지능의 활용에 대한 인식도 조사 결과를 보면 인공지능을 개인 신용 평가, 입사자 선별, 수감자의 재범위험성 예측 등에 활용하는 것에 대해 설문 응답자의 과반수 이상이 반대하는 것으로 나타났다.1 또한 인터넷이 사회에 긍정적으로 작용한다고 생각하는 사람들의 비중도 2014년부터 2018년 사이 76%에서 70%로 소폭 감소했다.2
    • 그림 1 분야별 알고리즘 활용에 대한 찬반 비중(좌)과 인터넷의 사회적 기능에 대한 의견(우)
      그림 1 분야별 알고리즘 활용에 대한 찬반 비중(좌)과 인터넷의 사회적 기능에 대한 의견(우)
      ※ 출처 : Pew Research Center(2018)
    • 사람들이 인공지능의 활용을 우려하는 가장 큰 이유는 첫째, 인공지능이 생각만큼 공정하지 않고, 둘째, 인공지능을 사용하는 과정에서 개인정보를 침해할 가능성이 높기 때문이다. 마이클 짐머 위스콘신대 교수는 “인공지능이 중립적이라고 착각하기 쉽지만 기존 사회의 편견과 불의를 영원히 유지하는 수단이 될 것이다.”라고 단언한 바 있다. 실제로 설문에 응답한 사람 중 58%가 인공지능 등 컴퓨터 프로그램은 설계자의 편견(Designer’s Bias)이 반영되어 공정하지 않다는 의견을 피력했다. 또한 개인의 구매 내역, 금융 정보, 검색 기록 등 각종 데이터를 수집하여 인공지능으로 신용 평가를 하는 경우 개인정보 및 사생활 침해를 우려하는 목소리도 높다. 인터넷 명예의 전당(Internet Hall of Fame)의 회원인 폴 빅시는 “알고리즘이 확산되면서 감시, 자율성 감소, 사생활 침해, 삶의 예측 불가능성 등의 문제가 도처에서 발생할 것”이라고 우려했다.
    • 그림 2 알고리즘 편향성에 대한 의견(좌)과 알고리즘 기반 신용 평가를 반대하는 이유(우)
      그림 2 알고리즘 편향성에 대한 의견(좌)과 알고리즘 기반 신용 평가를 반대하는 이유(우)
      ※ 출처 : Pew Research Center(2018)
    • 이와 동시에 디지털 기술을 활용하여 수익을 창출하는 테크 기업에 대한 인식도 부정적으로 변화하고 있다.3 앞서 언급한 퓨리서치센터의 조사에서 테크 기업이 개인의 삶에 도움을 준다는 응답은 74%인 반면, 사회 전반에 긍정적인 영향을 미친다는 응답은 63%로 상대적으로 낮다. 또한 설문 대상자의 72%는 테크 기업을 가끔 믿거나 거의 믿지 않는다고 응답하는 등 기업에 대한 신뢰도가 낮다. 테크 기업의 규제 수준에 대한 질문에 대해 응답자의 51%가 규제를 강화해야 한다고 답한 반면, 규제를 완화해야 한다는 응답은 9%에 불과했다.
    • 우리나라의 경우도 크게 다르지 않다. 한국전자통신연구원(ETRI)이 2017년 하반기에 우리나라 일반인 850명을 대상으로 조사한 결과를 보면 인공지능에 대한 전반적인 신뢰 수준은 7점 만점에 4.7점으로 높지 않다.4 주목할 점은, 인공지능 기술 자체에 대한 신뢰도는 5.3점인 반면 관련 제도나 이를 개발하는 기업에 대한 신뢰 수준은 각각 4.5점, 4.3점에 불과하다는 것이다. 또한 인공지능에 대한 신뢰를 제고하기 위해서 인공지능에 대한 법·제도 구축과 인공지능의 악영향에 대응하는 기술 개발 등의 방안이 언급되었다.
    • 그림 3 인공지능에 대한 신뢰도와 신뢰 형성 방안 조사 결과
      그림 3 인공지능에 대한 신뢰도와 신뢰 형성 방안 조사 결과
    • 주요 테크 기업들은 인공지능을 필두로 한 디지털 기술에 대한 신뢰 저하를 심각한 사업 위험 요인으로 인식하고 있다. 그리고 사용자들이 우려하는 문제를 예방하고 이들의 인식을 긍정적으로 전환하기 위해서 다음과 같은 다양한 활동을 전개 중이다.
  • 업계의 대응 : ① 인공지능 개발자가 준수해야 할 원칙 마련
    • 우선 인공지능이 잘못 활용되어 사회에 해악을 끼치는 것을 예방하기 위해서 인공지능 개발에 대한 가이드라인을 만들어 개발자들에게 이를 준수하도록 요구하고 있다. 구글은 2018년 6월 인공지능의 사회적 책임을 다하기 위해 인공지능 개발 및 활용에 있어서 준수해야 할 일반적인 권고사항(General Recommendation Practice for AI)을 마련했다.5 권고사항은 다음과 같은 여섯 가지 원칙으로 구성되어 있다. 첫째, 다양한 사용자를 테스트에 참여시켜 사용자가 인공지능을 어떻게 경험하고 의사 결정에 영향을 받는지를 파악하고 이들의 의견을 반영하여 인간 중심의 설계를 구현한다. 둘째, 사용자 설문, 시스템 성능 점검, 장기적인 이력 추적 등을 반영하여 평가 시스템을 구축한다. 셋째, 개인정보보호를 침해하거나 편견의 원인이 되는 데이터가 있는지 확인하고 데이터 누락은 없는지, 무작위 표본 추출이 되었는지 등도 확인하는 등 원시 데이터(Raw Data)를 항시 점검한다. 넷째, 훈련 데이터에 의해 모델의 용도가 제한됨을 명심하고 무리하게 다른 용도로 확장하지 않아야 한다. 다섯째, 인공지능이 의도한 대로 작동하는지 요소별 테스트, 요소별 상호작용 확인을 위한 통합 테스트, 사용자 테스트를 상시 수행한다. 여섯째, 시스템이 실제 환경에서 제대로 작동하는지 배포 후에도 관찰한다.
    • 마이크로소프트 역시 2018년 3월 신뢰할 수 있는 인공지능을 개발하기 위해서 설계 단계부터 개발자가 준수해야 하는 여섯 가지 개발 원칙을 제시했다.6 첫째, 가능한 다양한 배경을 가진 인공지능 개발자가 함께 인공지능 개발에 참여하도록 하고 공정성을 평가하고 문제를 적발하는 기술을 개발함으로써 인공지능에 편견이 개입될 여지를 제거한다. 둘째, 양질의 훈련 데이터(Training Data)를 활용하고 광범위한 테스트 과정을 거치며 지속적으로 성능을 감시함으로써 예상할 수 있는 모든 환경 요인을 최대한 반영한다. 셋째, 개인정보보호법을 준수하고 개인정보 비식별 기술을 활용할 뿐만 아니라 데이터 수집, 분석, 활용 등 전 단계를 투명하게 관리한다. 넷째, 장애인 등 소수 집단을 차별하거나 배제할 만한 장벽이 있는지 확인하고 이들에게 기회를 부여한다. 다섯째, 인공지능이 왜 그런 결과를 도출했는지 설명하여 사용자를 납득시킬 수 있어야 하며 오류, 의도치 않은 결과 등이 나올 경우 원인을 명확히 파악한다. 여섯째, 인공지능 시스템의 운영 방식을 결정하고 결과에 대해 책임을 지기 위해서 내부 검토 위원회(Internal Review Board)를 운영한다.
    • ※ 출처 : 한국전자통신연구원(2018)
  • 업계의 대응 : ② 인공지능의 사회적 영향 연구 및 감시 전담 부서 설치
    • 또한 인공지능 기술의 사회적 영향을 연구하고 인공지능에 의한 사회적 피해를 감시하는 전담 부서를 설치하는 기업이 늘고 있다. 알파고, 알파스타 등을 개발한 딥마인드는 2017년 10월 연구자가 인공지능 개발 과정에서 올바른 윤리적 선택을 하고 인공지능이 사회의 이익을 위해 활용되도록 도움을 주는 전담 부서(DeepMind Ethics & Society Unit)를 설립했다.7 사실, 딥마인드는 2014년 구글이 인수할 당시 구글에 인공지능의 사회적 파장 및 사회적 책임을 연구하고 인공지능 팀을 통제할 수 있는 조직을 설립하는 것을 인수 조건으로 요구했다.8 딥마인드를 설립한 데미스 하사비스는 “인공지능을 인간이 어떻게 활용하느냐에 따라 나쁜 결과가 나올 수 있으므로 책임감을 갖고 개발하도록 만들어야 한다.”고 주장해 왔다. 전담 부서의 주된 기능은 인공지능의 광범위한 영향에 대한 연구와 조사 활동을 수행하고 이를 바탕으로 개발자에게 올바른 가이드라인을 제공하는 것이다. 이 조직은 사회에 이익을 제공하는 연구, 엄밀한 근거 기반의 연구, 투명하고 개방된 연구, 다양한 분야 간 학제 연구, 협업과 포용을 지향하는 연구 등 연구의 5대 원칙을 천명했다. 또한 옥스퍼드대 닉 보스트롬 교수, 케임브리지대 다이앤 코일 교수 , 맥킨지 글로벌 연구소 제임스 매니카 소장, 컬럼비아대 제프리 삭스 교수 등 세계적인 공학자, 사회학자, 경제학자 등을 자문위원(Fellow)으로 임명하여 공동연구를 수행하고 있다.
    • 페이스북은 2018년 10월 미국 중간선거 및 브라질 대선 기간에 맞춰 가짜 뉴스를 적발하고 확산을 막는 전담 부서(War Room)를 설치했다.9 그동안 페이스북은 광고 매출을 늘리기 위해 빅데이터, 인공지능 기술을 악용하여 이용자의 정치적 성향을 정확히 프로파일링한 후 가짜 뉴스 및 정치 광고 배포에 활용한다는 비난을 받았다. 이에 2018년 4월 미국 의회에서 청문회가 열렸고, 연방수사국(FBI), 연방법원(DOJ), 증권거래위원회(SEC), 연방거래위원회(FTC) 등으로부터 전방위 조사를 받고 왔다. 자신들이 제공하는 SNS의 사회적 부작용을 감시하기 위해 신설된 부서에는 약 20여 명의 인원이 배치되었으며, 이들은 여러 부서에 소속된 300여 명의 인력과 협력하여 가짜 계정, 선동 광고 캠페인과 같은 허위 정보를 적발하는 업무를 수행하고 있다. 이 조직은 향후 감시 범위를 전 세계로 확대할 계획이다.
    • 그림 4 딥마인드의 인공지능 윤리 전담 부서 홈페이지(좌)와 페이스북의 가짜 뉴스 관리 전담 부서 전경(우)
      그림 4 딥마인드의 인공지능 윤리 전담 부서 홈페이지(좌)와 페이스북의 가짜 뉴스 관리 전담 부서 전경(우)
      ※ 출처 : 딥마인드 홈페이지(좌); The Guardian(우)
  • 업계의 대응 : ③ 인공지능을 활용해 사회에 기여하는 프로젝트 수행
    • 세 번째 대응 방식은 인공지능을 활용하여 전 지구적인 난제(難題)를 해결하고 사회를 개혁함으로써 인공지능의 사회적 책임을 수행하는 각종 프로젝트를 운영하는 것이다. 구글은 인공지능을 적용하여 인류가 직면한 도전과제를 해결하고 삶을 의미 있게 개선하기 위한 사업(AI for Social Good)을 수행 중이다.10 세계 각국의 시민 단체로부터 인공지능을 이용하여 사회복지를 개선하는 아이디어를 수집하고 채택된 경우 구글이 자금을 투입하여 사업을 공동으로 수행한다. 예를 들어 Global Fishing Watch와 함께 불법 조업 탐지 사업을, Rainforest Connection과 아마존 열대 우림의 불법 벌채 탐지 사업을 하고 있다. 그 외에도 홍수 예측, 심장 마비 예측, 인공지능의 공정성을 시각화하는 도구 개발 등의 과제를 수행하고 있다.
    • 표 1 구글의 ‘AI for Social Good’ 수행 과제
      <표 1> 구글의 ‘AI for Social Good’ 수행 과제
      과제명 과제 내용 진행 현황
      Quickly and Accurately Forecasting Floods 홍수 발생을 사전에 감지하고 구글 지도에 표시하여 인근 주민들에게 알리는 경고 시스템을 구축 인도에 적용
      Predicting Risk for Cardiac Events 망막 이미지를 사용하여 심장 마비 같은 심혈관 위험 요인을 예측하는 기술을 개발 연구 진행 중
      Analyzing ML Models with the What-If Tool 공정성 등 인공지능 모델의 기준을 사전에 설정하고 이를 충족했는지 시각화 도구로 결과를 제공하는 개발자 도구 개발 What-If Tool 1.0 버전 공개
      Mapping Global Fishing Activity 글로벌 조업 활동을 실시간으로 구글 지도에 보여 주는 플랫폼을 개발하여 불법 조업 적발 및 해양 서식지 보호 아라비아해에서 심야 조업하는 어선 감시
      Fighting California Wildfires 구글 텐서플로우(Tensor Flow)와 센서를 이용하여 풍속, 풍향, 습도, 온도 등 산불에 영향을 미치는 요소를 측정, 산불을 예방 센서(Smart Wildfire Sensor) 개발 중
      Helping Farmers Identify Diseased Plants 아프리카에서 5억 명 이상에게 식량으로 쓰이는 카사바 (Cassava)가 취약한 질병과 해충을 인공지능으로 진단 탄자니아에 진단용 앱 보급
      ※ 출처 : 구글 AI for Social Good 웹사이트
    • 인텔은 인공지능을 활용하여 자원 고갈, 식량 문제, 멸종 동식물, 문화재 훼손 등의 전 지구적 문제, 온라인상의 괴롭힘, 아동 착취, 빈곤국의 수질 오염 등의 사회 문제, 개인 맞춤형 정밀 의학 연구, 암 연구, 유전체 연구, 피부암 감지, 뇌 이미지 분석 등 건강한 삶을 추구하고 사회에 긍정적인 영향을 미치는 사업을 수행하고 있다.11
    • 표 2 인텔의 ‘AI for Social Good’ 수행 과제
      <표 2> 인텔의 ‘AI for Social Good’ 수행 과제
      유형 과제명 과제 내용 진행 현황
      全지구적 문제 해결 Fighting Illegal Poaching 멸종위기에 처한 야생 동물을 보호하기 위한 인공지능 카메라 개발 인공지능 칩(모비디우스) 개발(2018.6.)
      Iceberg Classifier Challenge 선박과 빙산을 분류하여 선박이 안전한 해양운항을 가능케 지원하는 경진대회 지원 경진대회 종료(2018.1.)
      Autonomous Greenhouse Challenge 온실에서의 작물 생산 자동화를 통한 스마트 농업 기술 축적 심층강화학습을 오이경작에 적용
      Noninvasive Arctic Research 드론 등을 이용하여 안전하고 자연친화적인 북 극곰 연구 진행 중
      Great Wall of China Restoration 만리장성의 3D 모델 및 벽의 손상을 인공지능으로 확인하고 수리지침을 내려 복원 및 보호 진행 중
      사회 문제 해결 Hack Harassment 온라인에서 발생하는 욕설, 괴롭힘, 차별, 인권 침해 등의 문제를 해결 종료
      Fight Online Child Exploitation 이미지 인식기술 등을 활용하여 온라인에서 발생하는 아동 성매매를 적발 및 근절 비영리단체 쏜(Thorn)과 협력
      Assisting the WorldBank 세계은행의 빈곤 퇴치 사업을 지원하기 위해 지역별 이미지를 분석하여 빈곤 수준을 파악 세계은행 개발 데이터 그룹과 시범 연구 종료(2016.8.)
      Detecting Water Contamination 인공지능 기술을 이용하여 빈곤국가에 만연한 물 속의 해로운 박테리아를 탐지 시제품 개발단계
      건강한 삶 추구 Cervical Cancer Screening 이미지 인식기술을 이용하여 자궁경부암 유형을 식별하고 효과가 없는 치료를 막는 것을 지원 진단 알고리즘 개발 경진대회 종료(2017.8.)
      Genomics Research 딥러닝 기술을 이용하여 단백질 서열 태그에 대한 새로운 통찰력을 얻는 연구 수행 SGI와 공동연구 중
      Brain Imaging Analysis 뇌 활동을 관찰하여 인간의 사고를 해독하고 정신 질환에 대한 치료법을 향상 프린스턴대와 공동 연구 중
      Classifying Osteoarthritis 의사가 골관절염을 잘 해독할 수 있도록 인공지능 기반의 MRI 분류 시스템을 구축 개발 완료
      ※ 출처 : 인텔 AI4Good 웹사이트
  • 국내 현황 및 시사점
    • 우리나라의 경우 카카오가 2018년 1월 국내 업계 최초로 인공지능 개발자들이 알고리즘 설계 시 준수해야 할 사항을 명문화한 인공지능에 관한 윤리규범을 제정·발표했다.12 인공지능을 인류의 편익과 행복을 추구하는 데 활용한다는 대원칙 하에 차별에 대한 경계, 학습 데이터 관리, 알고리즘 독립성, 알고리즘에 대한 설명 의무 등의 내용을 담았다. 또한 2019년 3월에는 한국인공지능윤리협회가 출범했다. 인공지능 윤리 기준의 글로벌 표준화 주도, 안전한 인공지능 제품 및 서비스에 대한 인증 사업, 인공지능 윤리교육 등의 사업을 추진할 계획이다.13
    • 한편, 인공지능 연구자 사이에서 인공지능에 대한 윤리 기준 강화와 사회적 책임 요구가 연구 활동을 위축시켜 기술 발전을 저해할 것이라는 우려가 제기되고 있다. 미국과 중국이 인공지능 기술과 서비스에서 한참 앞서고 있는 상황이고 과거 강력한 규제로 제때에 시장에 뛰어들지 못한 아픈 경험을 가진 우리나라 연구자와 사업가들에게는 당연한 걱정이다. 하지만 최근 개인정보를 침해하면서 개발한 중국산 인공지능에 대한 국제 사회의 불신과 미 국방부와 공동으로 군사적 목적에 인공지능을 적용하기로 한 구글에 대한 반대 여론 등을 살펴보면 인공지능의 사회적 영향에 대한 고려는 의무사항이라기보다는 경쟁력 확보 수단으로 생각하는 것이 바람직하다. 이럴 때일수록 해외 기업과 정부의 움직임을 주시하고 너무 빠르지도 느리지도 않게 보폭을 같이하는 운영의 지혜가 필요하다.
    • 1 Pew Research Center(2018.11.16.), “Public Attitudes Toward Computer Algorithms”.
    • 2Pew Research Center(2018.4.30.), “Declining Majority of Online Adults Say the Internet Has Been Good for Society”.
    • 3 Pew Research Center(2018.6.28.), “Public Attitudes Toward Technology Companies”.
    • 4 한국전자통신연구원(2018.2.), “인공지능의 신뢰 이슈와 대응 방안”.
    • 5 https://ai.google/education/responsible-ai-practices
    • 6 마이크로소프트(2018), “인공지능으로 변화될 미래 : 인공지능, 그리고 그 사회적 역할”.
    • 7https://deepmind.com/blog/why-we-launched-deepmind-ethics-society/
    • 8 한겨레21(2016.3.14.), 알파고의 아버지 하사비스 인터뷰, “강력한 인공지능의 윤리를 중요하게 생각한다”.
    • 9The Guardian(2018.10.19.), “Facebook Has a Fake News ‘War Room’-But Is It Really Working?”.
    • 10 구글 AI For Social Good 홈페이지(https://ai.google/social-good).
    • 11 인텔 AI4Good 홈페이지(https://www.intel.ai/ai4socialgood/#gs.2o448d).
    • 12 국민권익위원회(2019.1.), “카카오-인공지능 윤리헌장 발표”, 기업윤리 브리프스.
    • 13전자신문(2019.3.21.), “한국인공지능윤리협회 출범”.