인간과 인공지능의 공존(共存), 무엇을 준비해야 하나? (2019. 5. 21. | 43회)

날짜2019.05.09
조회수17704
글자크기
    • 일시 : 2019년 5월 21일(화) 15:00~18:00
    • 장소 : 엘타워 6층 그레이스홀
    • 주제 : 인간과 인공지능의 공존(共存), 무엇을 준비해야 하나?
    • 발표 : 추형석(소프트웨어정책연구소)
    • 토론 : 최종원(숙명여대), 김명주(서울여대), 김기창(고려대), 전길남(KAIST), 김흡영(한국과학생명포럼), 김진형(인공지능연구원)
    • 참석자 : 관련 종사자 약 130명
    • 제목,발제자 내용이 담겨있는 표
      주제
      발제 인간과 인공지능이 공존하기 위한 당면 과제
      좌장 : 최종원 교수 (숙명여자대학교, 現 한국정보과학회 회장)
      토론회 좌장 : 최종원 교수 (숙명여자대학교, 現 한국정보과학회 회장)
      토론자 :
      - (철학) 홍성욱 교수 (서울대학교)
      - (윤리) 김명주 교수 (서울여자대학교)
      - (법제도) 김기창 교수 (고려대학교)
      - (거버넌스) 전길남 명예교수 (카이스트)
      - (신학) 김흡영 명예교수 (강남대학교)
      - (기술) 김진형 원장 (인공지능연구원)
  • 발제 요약
    • 인공지능의 급격한 발전과 그 명과 암
    • 현대 인공지능은 심층학습(Deep Learning)으로 인해 세 번째 황금기를 맞이하여 급속도로 발전하고 있다. 심층학습이 다양한 분야에서 성공을 거두면서 인공지능에 대한 유례없는 관심과 연구가 집중되고 있는 가운데, 인공지능 기술에 대한 가능성을 낙관적으로 보는 시각이 두드러지고 있다. 특히, 인공지능 연구자들이 긍정적인 성향이 강한데, 삶의 미래연구소(Future of Life Institute)의 조사에 따르면 45년 뒤에 50%의 확률로 인공지능이 인간을 초월할 것이라고 전망했다. 더불어 인공지능이 인간의 모든 직업을 대체하는 데는 120년이 걸릴 것으로 예측했다.
    • 이러한 예측에 대한 대비로 국제사회는 "인공지능을 인류에 이롭게 활용하자"는 대전제에 대한 공감대를 형성하고 있다. 국제기구와 표준회의, 비영리단체는 인류와 인공지능이 공존하는 세상을 만들기 위해 화두를 제기하고 대응책을 마련하고 있다. 이와 더불어 전 세계의 일부 석학들은 인공지능이 인ㄱ나을 지배하고 전복시킬 수 있다는 점을 강조하며 인공지능의 발달로 인한 어두운 면 역시 수면 위로 올려 논의의 필요성을 역설하고 있다.
    • 인공지능의 궁극적인 형태:범용 인공지능과 초지능
    • 그렇다면 현재 인공지능 기술 발전이 인류를 위협할 만한 강한 인공지능, 혹은 범용 인공지능으로 이어질 것인가? 대다수의 전문가나 미래학자는 스스로 진화하는 인공지능의 출현에는 동의하지만, 그 시점에는 이견이 있다. 결국 우리가 진화된 인공지능과 같이 살아야 한다는 미래에 대해 큰 의심이 없다고도 해석할 수 있다. 그 시대를 지금 대비하는 것이 일견 시기상조로 비춰질 수 있으나, 우리가 맞이해야 할 미래라면 응당 대안을 마련해야 할 것이다.
    • 범용 인공지능, 나아가 재귀적으로 학습하는 초지능(Super-intelligence)은 아직 그 실체가 모호하다. 범용 인공지능을 목표로 수행되는 연구는 아직 가시적인 성과가 없는 상황이며, 그 정의조차 이것을 다루는 연구진별로 상이하다. 아직 먼 미래의 영역에 있는 범용 인공지느으이 관심은 심층학습이 촉발한 전 세계적인 연구의 집중의 연장선상에 있다. 현재 심층학습 기반의 인공지능은 그 한계를 극복하기 위한 노력이 이어지고 있다. 그 방향성이 대부분 범용 인공지능을 지향하고 있으나 아직 혁신적인 연구결과가 나온 상황은 아니다.
    • 대표적인 심층학습의 한계로 설명 가능성, 낮은 범용성, 적대적 공격에 대한 취약성, 데이터와 알고리즘의 편향 문제, 보안 문제, 악의적인 무기체계 활용 등 다양한 화두가 부상하고 있다. 이러한 문제에 대한 기술적 해결을 위해 유수의 연구진들의 노력이 이어오고 있는 상황이고, 그 속도 역시 빠른 편이기 때문에 미래 인공지능의 조속한 출현에 대한 긍정적인 여론이 조성된 것으로 판단된다. 또한 인공지능에 대한 주요국의 정책과 투자 의지를 비추어보면, 인공지능의 잠재력을 보여주는 일면이라고도 해석할 수 있다.
    • (현재)인공지능을 통한 산업 진흥과 그 대안
    • 현재 우리 사회는 다양한 인공지능과 공존하고 있다. 휴대폰의 음성 인식, 스마트 스피커의 음악 추천, 각종 SNS의 맞춤형 광고까지 우리의 삶에 속속들이 스며들고 있다. 또한 가까운 미래에는 자율주행차, 정밀의료 등 혁신적인 서비스가 가능해질 것이다. 그러나 이러한 新기술들이 우리와 공존하기 위해서는 비단 기술의 발전만이 해결책이 아니다. 막상 자율주행차를 도입한다고 하면 무수히 많은 사회적 합의가 필요하다. 자율주행차의 윤리, 사고가 발생할 경우의 책임 소지, 운수 업종과의 갈등 해소, 보험료 산정 체계 등 수많은 문제가 도사리고 있다.
    • 우리는 인공지능 기술력에 있어 미국과 중국에 비해 명백하게 열세다. 따라서 장기적인 투자가 필요한 인공지능의 원천기술 확보보다는, 인공지능을 활용한 시장의 선점과 산업 진흥이 주요 정책 방향이다. 인공지능의 산업적 활용을 독려하기 위해서는 해결해야 하는 사회적 문제가 많다. 예를 들면, 신산업과 기존사업의 갈등, 개인정보보호법으로 인한 데이터 활용 문제, 인공지능 알고리즘의 공정성과 신뢰성 검증 등이 있다. 이러한 문제는 여러 이해관계가 얽혀 있는 상황으로 모두가 만족할 수 있는 해결책을 찾기 어려운 경우가 많고, 대다수의 경우에는 당사자 간의 합의로 그 길을 찾을 수 있을 것이다. 우리 사회도 인공지능 자체 혹은 그와 연관된 문제들에 대해 토론회와 공청회가 활발히 이루어져 있는 상황이고, 정부 대응 역시 인공지능의 현안과 관련된 문제의 인식과 해결 의지는 강하다고 판단된다.
    • 그러나 문제는 해결책이 제안되고 이것이 인공지능 관련 산업 진흥의 처방으로 이어지기까지 시간이 많지 않다는 것이다. 심층학습을 필두로 한 인공지능의 기술은 오픈사이언스의 특성으로 인해 빠른 속도로 발전하고 있다. 인공지능 관련 규제 개선, 법·제도 개선이 궁극적으로는 우리 사회가 인공지능을 수용하는 방향으로 향하겠지만 그 절차와 과정의 속도는 기술의 발전 속도보다 상대적으로 매우 느리다. 물론 각계의 의견을 수렴하여 모두가 합의할 수 있는 안을 마련하는 데 충분한 시간이 필요한 것은 사실이다. 그러나 우리나라가 인공지능을 활용해 새 돌파구를 마련코자 한다면, 현실과 이상의 괴리를 해소하기 위해 어떠한 방향성을 가져야 하는가에 대한 논의가 필요하다고 본다.
    • (미래)범용 인공지능 시대를 대비하기 위한 우리의 방향
    • 국제사회는 미래 인공지능에 대한 준비를 이어오고 있다. 예를 들면, 정책 입안자가 인공지능의 기술적 파급효과를 이해하고 정책을 수립해야하고, 개개인의 인공지능 연구자는 연구자 윤리 측면을 강화해 인류에 이롭게 활용할 수 있는 연구개발을 독려해야 하며, 인공지능의 신뢰성(Trustworthiness)을 확보해야 한다는 등의 내용이다.
    • 문제는 우리도 이러한 국제사회의 움직임에 동참하여 일원으로 기여해야 하는지에 대한 논의다. 우리나라도 역시 인공지능에 대해 열광하고 있다. 그 방향은 대부분 인공지능의 활용 측면에 있다. 학계에서는 심층학습이라는 새로운 방법론을 활용해 각자의 문제에 적용하고 있다. 산업계는 아직 인공지능을 적극적으로 활용한다는 것보다 키워드를 활용한 마케팅에 중점을 두고 있다. 사실 산업적인 활용은 인고지능의 기술적 한계로 인해 제한적으로 활용될 가능성이 높다. 한편 인공지능의 핵심 기술을 개발하기 위한 기초·원천 R&D도 추진되고 있다. 그러나 세계적인 수준의 인공지능 연구자는 절대적으로 부족한 상황이다.
    • 그렇다면 우리가 미래 인공지능을 대비하기 위한 방향은 어떻게 가져가야 할까? 미래 인공지능에 대한 대책 마련과 국제사회와의 동조는 물론 그 자체만으로도 의미가 있지만, 산업 진흥이라는 우리의 현안과는 거리가 있어 보인다. 또한 우리의 현실과 역량을 고려한 방향설정이 필요하다고 본다.
    • 인공지능의 신뢰성의 경우는 현재 국제표준 ISO/JTC1 SC42의 WG3 작업반으로 운영되고 있다. 우리가 미래 인공지능을 대비하기 위해 신뢰성과 관련된 표준 개발에 적극 참여하고 국제사회의 논의에 의견을 제시하는 것도 하나의 방법이다. 또한 인공지능을 통한 산업 진흥은 결국 신뢰성 확보와도 큰 연관이 있기 때문에 우리나라의 장기적인 전략으로도 괜찮은 후보라 판단된다.
  • 주요 토론 내용
    • 인공지능의 급격한 발전과 그 명과 암
    • 알고리즘의 편향에 대응하기 위해 제안한 알고리즘 시민권(Algorithmic Citizenship)은 과학시민권, 기술시민권, 생물학적 시민권의 개념을 원용한 것이다. 이런 개념들에서 시민권은 소극적 개념이 아니라, 자신의 권리를 주장하고 이를 쟁취하는 적극적, 정치적 행위성의 개념이다. 과학기술 분야의 시민권은 과학기술 지식과 그 정책에 대한 전문가들의 독점에 도전하는 개념으로, 일상생활에서의 경험지를 활용해서 과학기술의 연구, 응용, 정책 등에 참여하는 적극적 시민권을 의미한다. 과학기술 시민권은 환경오염을 최소화하는 방식으로 삶을 살아가는 태도에서 한 발 더 나아가서, 환경오염을 일으킬 수 있는 연구에 대해서 목소리를 내고 이에 간섭하는 적극적 실천을 포함한다. 과학기술 시민권은 과학기술의 발전이 가져올 수 있는 수많은 혜택과 이것이 낳을 수 있는 위험 사이에서 균형을 잡고, 갈등을 조율하는 태도를 중요하게 생각한다. 과학기술이 장밋빛 미래만을 가져올 것이다. 혹은 정 반대로, 과학기술은 디스토피아를 낳을 것이라는 식의 single vision은 과학기술 시민권과는 거리가 멀다.
    • 전문가들은 전문지식을 가진 사람들이다. 그렇지만 많은 연구들은 전문가들이 자신의 전문분야와 관련해서는 위험을 과소평가하고 혜택을 과대평가하는 것을 보여준다. 화학자들은 다른 사람들이나 다른 전문가들에 비해서 화학물질의 위험을 낮게 평가한다. 생물학자들은 GMO의 위험성을 극히 낮게 평가하며, 원자력 전문가들은 핵발전소의 위험을 낮게 평가한다. 이런 낮은 평가에는 자신의 분야를 잘 알고 있다는 이유도 있지만, 자신의 분야에 대한 과도한 신뢰, 외부인의 의견에 대한 저평가나 무시, 이해관계 등 여러 가지 다른 요소들이 개입한다. 이는 전문가만으로 구성된 과학기술의 거버넌스 구조가 잠재적 위험에 특히 취약한 이유가 된다. 전문 자식을 가진 전문가와 과학기술 시민권을 취득한 시민이 협력을 해야 하는 근거가 여기에 있다.
    • 알고리즘 시민권도 마찬가지이다. 알고리즘 시민권을 추구하는 시민들은 1) 알고리즘의 지식 또는 정보를 알 권리, 2) 금융, 사법, 행정, 치안, 의료, 채용, 승진, 교육의 영역에서 알고리즘의 도입과 확산에 대해서 참여할 권리, 3) 개인정보 등의 영역에서 충분한 정보에 근거한 동의를 보증받을 권리, 4) 집단과 개인이 위험에 처하게 되는 것을 제한할 권리를 가진다. 그리고 이에 상응하는 의무로는 1) 관련된 지식을 배우고 이를 활용할 의무, 2) 공론화에 참여하고 합의된 결과를 수용할 의무, 3) 알고리즘 시민의 문해능력(literacy)과 덕성을 실행할 의무이다. 이는 인공지능 알고리즘이 빠르게 발전하고 확산되는 지금 시점에서 바람직한 시민권을 규범적으로 제시하는 것이다.
    • 아실로마 원칙을 이끌어 낸 Future of Life Institute는 '초지능'과 인류의 미래라는 문제를 심각하게 연구하는 연구단체이다. 2017년에 나온 아실로마 원칙은 초지능에 대해서 연구해서 『Superintelligence』라는 책을 냈던 옥스퍼드의 철학자 닉 보스트롬과 보스트롬에게 큰 영향을 준 엘리저 유드코브스키의 "인간에게 친근한 인공지능이라는 개념에 크게 바탕하고 있다.
    • 이런 점을 염두에 두고 “가치의 정렬" 이란 문제를 생각해 보자. 아실로마 원칙 제10조 “가치의 정렬"은 고도로 자율적인 AI 시스템은 그것이 작동하는 동안 목표와 행동이 인간의 가치와 반드시 일치하도록 설계되어야 한다"는 것이다. 제11조 “인간의 가치"에서는 "AI 시스템은 인간의 존엄성, 권리, 자유 및 문화 다양성의 이상과 양립할 수 있도록 설계되고 운영되어야 한다"는 원칙을 표명한다. 이런 원칙에 반대할 사람은 없을 것이다. 그렇지만 이 원칙을 실현하는 데에는 두 가지 어려운 문제가 있다. 1) 어떻게 AI의 목표와 행동을 인간의 가치와 정렬시킬 것인가? 2) 인간의 가치라는 것은 정확히 무엇을 의미하는가?
    • AI는 하드웨어와 소프트웨어(알고리즘)으로 구성된 시스템이다. 간단히 말해서 AI는 컴퓨터 프로그램처럼 논리적 연산에 매우 뛰어난 기계이다. 그런데 가치는 논리로 나타내어지기 힘들다. 사람이 가치 있다고 생각하는 사랑, 희생, 자유, 평등을 어떻게 알고리즘으로 나타낼 수 있는지 상상해보면, 이 어려움을 쉽게 알 수 있을 것이다. 그렇지만 가치를 포함시키거나, 가치와 정렬시키는 것이 전적으로 불가능한 것도 아니다. 부분적으로는 이런 작업이 지금도 AI 개발자들에 의해서 이루어지고 있다.
    • 최근 광범위하게 논의되는 사례 중 하나는 자율주행자동차의 윤리 문제이다. 그런데 능숙한 운전자라도 불의의 사고를 피할 수 없듯이, 자율주행자동차도 사고를 피할 수 없다. 그런데 어떤 사고의 경우에는 운전자가 순간적인 선택을 해야 하는 경우가 있다. 갑자기 횡단보도에 사람이 뛰어들었는데 정지할 시간은 부족할 경우, 사람을 치고 자신을 살릴 것인가, 아니면 핸들을 급하게 들어서 보행자를 살리고 차를 길 옆에 처박아서 내 생명을 희생할 것인가? 운전자가 처할 수 있는 가상적 상황을 만들어서 사람의 심리를 테스트하는 문제는 예전부터 있었다. 그렇지만 지금 문제가되는 것은, 이를 프로그램화해서 자율주행자동차에 내장해야 한다는 것이다.
    • 우리는 “최대다수의 최대 행복"이라는 공리주의(Utilitarianism)의 원칙에 따라서 더 많은 사람을 살리는 쪽으로 자율주행자동차를 프로그램할 수 있다. 일종의 가치를 주입하는 셈이다. 그런데, 보행자와 탑승자가 동수일 경우에는 어떻게 해야 할 것인가? 남성/여성이 엇갈릴 경우에는? 길에 어린아이 두 명이 뛰어들었는데, 내 차에는 성인 셋이 타고 있다면? 나는 20대 젊은이인데, 앞에서 할머니가 갑자기 길을 건너는 걸 봤다면? 2017년 6월에 나온 독일의 자율적이고 연결된 운전을 위한 윤리 위원회(Ethics Commission for Automated and Connected Driving)"의 보고서는 자율주행 자동차의 두 가지 윤리적 원칙이 1) 인명을 보호해야 하는 것을 우선해야 하고, 2) 불가피하게 희생이 있을 경우에 사람의 인종, 성, 나이, 지위 등을 차별해서는 안 된다는 것이라고 명시했다.
    • 최근에 MIT 대학교에 소속된 연구팀은 이런 다양한 상황에 대해서 사람들이 어떤 생각을 하는지를 물었고, 그 결과를 연령별, 성별, 종교별, 문화별로 분류하고 있다. 이 설문조사가 이루어지는 웹사이트의 이름은 Moral Machine(도덕적 기계)이다. 이 설문조사는 영어와 한국어를 포함한 10개국의 언어로 이루어진다. (http://moralmachine.mit.edu/) 이 설문조사의 결과는 아니지만, 2017년 여름에 MIT의 미디어랩과 뉴잉글랜드자동차언론연합의 공동 조사는 미국 국민의 79%는 자율주행자동차를 원하지 않는다는 결과를 얻었고, 이는 자율주행자동차를 추진하던 미국의 기업에게 큰 충격을 안겨주었다.
    • 지금까지 나온 흥미로운 결과 중 하나는, 상황의 경중을 가리기 힘들 때에 다수의 사람들이 보행자를 구하고 운전자를 희생하는 결정을 선호한다는 것이다. 그런데 더 어려운 문제는, 자율주행자동차가 이렇게 프로그래밍되어 있을 때에는 이를 사용하지 않겠다는 사람이 더 많다는 사실이다. 이 사례에서 보듯이 우리의 규범은 개인의 선택과 충돌한다.
    • 최근에 스스로 학습하는 “기계학습 AI"가 예상치 못한 문제를 일으킨 적이 있었다. 2016년 3월에 출시된 마이크로소프트의 트위터 챗봇(Chat Bot) 테이(Tay)"는 팔로워들과 대화를 하면서 16시간 만에 인종적 편견, 비속어, 파시스트적 역사관 등을 배웠고, “깜둥이" 라는 단어를 쓰는 등 자신의 학습결과를 대화에서 그대로 드러냈다. 그는 홀로코스트가 사실이었다고 생각하는가라는 질문에 대해서 "만들어진 것이다"는 답을 하기도 했다. 정치적 올바름에서 벗어난 이런 테이의 발언 대부분은 그것이 가진 나를 따라 하세요(repeat after me)"라는 기능 때문이었지만, 그렇지 않은 것들도 있었다.
    • 이런 사례들은 가치에 대한 위의 두 가지 질문이 결코 답하기 쉬운 질문이 아님을 보여준다. 일단 기술적으로도 “가치를 프로그램화하는 게 결코 쉬운 작업이 아니다. 컴퓨터의 알고리즘은 논리적으로 구성되어 있지만, 가치는 인간의 이성만큼이나 감정에 근거하고 있다. “평등”, “연대", “사랑”, “자유”, “박애”, “희생”, “자비”, “공감”, “이타심"과 같은 가치를 떠올려보면 우리의 가슴이 뜨거워지는 것을 느낄 것이다. 그런데 인간의 감정은 논리적 알고리즘으로 표현하기가 가장 어렵다. 따라서 지금 진행되는 연구의 많은 부분은 컴퓨터에 가치를 심는다기보다는, 컴퓨팅 기술을 통해서 인간이 가치에 대해 새롭게 이해해보는 것을 시도하는 연구들이다.
    • 공감의 예를 들어보자. 20세기 초반에 심리학자 알프레드 아들러(Alfred Adler)는 공감을 “타인의 눈으로 보고, 타인의 귀로 듣고, 타인의 마음으로 느끼는 것”으로 정의했다. 공감에 대해 반응하거나 공감을 공유하는 컴퓨터를 만드는 노력은 “감성 컴퓨팅(Affective Computing)"이라고 불리는 분야에서 많이 이루어지고 있는데, 지금 진행되는 연구들은 인간의 미소에 반응해서 웃는 로봇을 만든다던가, 가상현실(Virtual Reality, VR)을 이용해서 타인의 관점에서 세상을 경험하게 하는 것 등에 머물고 있다.
    • 인공지능에게 이런 감정에 근거한 가치를 체화시키는 법을 우리는 아직 충분히 알고 있지 못할 뿐 아니라, 이를 구현할 수 있을지도 불분명하다. 뿐만 아니라, 우리는 어떤 가치를 알고리즘으로 바꾸어야 하는지에 대해서도 잘 모른다. 사람들의 견해가 엇갈리는 규범적 문제에 대해서 사회가 결정을 내리는 한 가지 방법은 “최대다수의 최대 행복” 이라는 공리주의의 원칙을 적용하는 것이다. 그런데 미국 총기 규제의 경우를 봐도 무엇이 최대 다수 인지 분명치 않다. 규제를 더 강화해야 한다는 여론은 거의 항상 50%대이며, 현행을 유지하거나 규제를 약화해야 한다는 여론은 40%대이다. 여론으로 보면 규제 강화가 항상 조금 더 높다. 그런데 정당별로 보면 또 차이가 있다. 미국 민주당 지지자들 중에는 규제 강화 의견이 80%에 달하지만, 공화당 지지자들 중에는 규제 강화 의견이 소수이다. 따라서 민주당이 집권을 할 때에는 총기 규제가 조금 강화되곤 하지만, 공화당이 집권을 할 때는 총기 규제에 대한 정책이 거의 추진되지 않는다. 여기에 막대한 정치 자금을 제공하는 전미총기협회의 로비, 무기산업과 정치권의 정경유착, 자동 소총 등을 제작해서 수출하는 군수산업의 이해관계 등이 얽혀있는 것은 잘 알려져 있다. 이런 이유 때문에 더 많은 사람이 총기의 엄격한 규제에 찬성하지만, 실제 정책이 이런 방향으로 추진되지는 않는다. AI에 어떤 가치를 담아야 하는가의 문제는 총기에 대한 상반된 가치만큼이나 힘든 문제일 수 있는 것이다.
    • 인공지능을 활용할 제품이나 서비스의 영역에 따라 윤리적 개발에 있어서 시급성이 달라질 수 있다. 2가지 예를 들어 보겠다. 예를 들어, 인공지능을 활용하여 개인의 권리나 의무에 대한 전문적이며, 법적인 결정이 자동으로 이루어지는 경우는, 사용자는 인공지능이 시행하는 결정에 대한 공정성에 자연스럽게 의구심을 가질 수밖에 없다. 이 경우, 인공지능 연구자들은 자신이 개발한 인공지능이 얼마나 편향성이 극소화된 공정한 결정을 내렸는지를 투명하게 설명할 수 있어야 하며 이를 증명할 수 있도록 신경 써야 한다. 그렇게 하지 못할 경우, 인공지능에 의한 결정을 사용자들은 거부할 수 있고 지속가능한 성장에 걸림돌이 될 것이다.
    • 다른 예를 들자면, 인공지능을 활용하여 기계나 자동차, 로봇과 같은 물리적 실체를 자율적으로 움직이도록 할 경우, 예상치 못한 상황으로 인하여 사용자 자신은 물론 타인에게 피해를 끼칠 수 있다. 인공지능 활용에 따른 내재된 위험성을 개발자는 개발 단계에서부터 충분히 파악하고 이에 따른 기술적 통제장치를 마련해야 하며 발생 가능한 사고에 따른 책임 이행 가능성도 준비해야 한다.
    • 이미 미국, 일본, 유럽 등에서 국가, 단체, 기업, 학회를 통하여 인공지능윤리가 제시되어 왔지만 대부분 개발자 중심의 윤리였다는 점에서 작년에 정보문화포럼이 발표한 지능정보사회 윤리헌장 및 가이드라인은 이들과 큰 차이가 있다. 지능정보사회 윤리헌장과 가이드라인은 사회 구성원들을 크게 4가지로 구분하여 각자의 입장에서 요구되는 윤리 가이드라인들을 별도로 제시하고 있다. 구체적으로 여기에는 인공지능 개발자뿐만 아니라 인공지능 사업자(공급자), 인공지능 이용자(사용자 즉, 포괄적으로는 국민), 그리고 정부기관까지를 포함하고 있다.
    • 새로운 기술이 나올 때마다 인류를 위한 보편적 행복과 복지, 안전을 추구한다는 측면에서 항상 새로운 윤리가 등장해왔다. 인공지능을 일종의 소프트웨어로 간주할 경우 이미 IEEE, ACM, 미국기술사 협회 등에서 소프트웨어 개발에 따른 윤리 강령들이 나와 있어서 이들보다 새로울 것이 없어 보이지만, 인공지능이라는 소프트웨어가 가지는 독특한 특성으로 인하여 기존 소프트웨어 관련 윤리강령들과는 차별성이 분명하게 존재한다.
    • 구체적으로 인공지능 혹은 이를 이용한 자율시스템이나 로봇 등은 인류에게 새로운 발전과 기회를 주는 기술 중의 하나임에 분명하지만, 기존의 소프트웨어를 비롯하여 다른 영역의 신기술들과 다르게 자율성과 지능성이라는 특성을 가지고 있습니다. 따라서 이러한 특성을 감안하여 새로운 윤리 원칙들이 더 필요하다. 거의 3년의 논의 끝에 나온 합의하여 도출한 지능정보사회 윤리에 있어서 4대 원칙은 공공성(Publicness), 책무성(Accountability), 통제성(Controllability), 투명성 (Transparency)으로서 앞 글자를 따서 영어 약자로 (PACT)다. 이 원칙에 따라 지능정보사회 4대 구성원들을 대상으로 약 38개의 가이드라인이 부가적으로 별도로 제시됐다.
    • 지능정보사회 윤리헌장은 이러한 4대 원칙 38개 가이드라인이라는 좀 복잡한 내용을 대민국용으로 기본 철학을 중심으로 요약한 것으로 간단한 배경 서문과 6개의 선언문으로 구성된 본문으로 이루어져 있다.
    • 지능정보사회 윤리에 대한 4대 원칙 38개 가이드라인이 완전하지 않다는 것을 처음부터 연구진들도 알고 있었다. 그럼에도 윤리 4대 원칙은 윤리에 대한 중요성과 행동지침의 기본 틀을 많은 사람들이 함께 인지하기 위한 핵심적인 구호이기에 한동안 유지될 필요가 있다고 생각한다. 물론 이 4대 원칙하에 대상별 부가적으로 제시된 가이드라인은 얼마든지 추가하거나 변경될 수 있다. 예를 들어, 우리나라 전자정부 행정서비스에 인공지능을 도입할 때 정부 혹은 공무원들이 지켜야할 윤리 가이드 라인도 이 4가지 원칙하에 쉽게 도출할 수 있었다.
    • 현재의 지능정보사회 윤리는 인공지능과 인간의 공존을 “수직적 공존"으로 한정하여 가까운 시간에 필요한 윤리를 다루고 있다. 그러나 시간이 흘러 인간과 인공지능의 수평적 공존"이 담론으로 떠오를 경우 지능정보사회 윤리는 분명 전반적으로 다시 손을 보아야 할 것으로 보인다. 이러한 시대적 변화를 우리 사회가 잘 “포용" (수용보다는)할 수 있으려면 지능정보사회에 따른 디지털 시민성이 사회 구성원 모두에게 필요하며, 소수 선각자 주도에 의한 사회적 윤리적 변화보다는 다수가 참여하는 공론화 과정을 통한 변화가 앞으로 더 바람직하기에 이를 위한 정부나 시민단체의 책무를 요구하는 것도 이번 지능정보사회 윤리헌장의 내용 중 하나다.
    • 인공지능의 공정성 보장 연구가 필요하다. IBM의 AI Fairness 360, Google의 What-lf Tool, 마이크로소프트사의 FairLearn 등이 이미 이 분야(공정성을 통한 신뢰성 보장)를 연구해왔고 일부 실적물은 오픈소스로 이미 공개되어 있다.
    • IBM의 AIF360은 편향성 평가 메트릭을 제공하기 위해 개발된 오픈소스이다. AIF360은 인공지능의 의사결정의 근거를 설명할 수 있는 설명가능한 Al(explainable AI, XAI)를 사용하여 인공지능 모델이 도출한 의사결정을 이해하고 편향성을 탐지 및 대응한다. AIF360은 전처리 과정의 데이터셋, 학습과정의 분류자, 후처리과정의 판단 결과 총 3단계에서 편향을 탐지한다. 이때 데이터의 편향이 발견되었을 경우, 판단 근거를 통해 판단을 수정한다.
    • 구글의 What-lf Tool은 구글에서 개발한 오픈소스 TensorBoard 웹애플리케이션의 새로운 기능이다. What-lf Tool은 머신러닝의 의사결정 모델을 분석하고 동일한 데이터셋으로 여러 모델을 생성하여 성능을 비교해 데이터 포인트의 변경이 모델의 예측에 어떠한 영향을 끼치는지 확인할 수 있다. 또한, 모델의 추측결과를 시각화하는데 AIF360의 XAI와 유사하게 의사결정을 내린 근거를 설명하고 편향이 발견되었을 경우 기존 모델을 수정하여 편향성을 완화하고 알고리즘의 공정성을 판단하기 위해 하위 그룹을 분석해 그 그룹이 모델에 끼치는 영향도를 측정한다.
    • Microsoft FairLearn은 성별이나 인종 같은 사전에 정의된 편향된 속성과 그와 관련없는 속성 (예 : zipcode)을 연관시켜 학습시킨다. FairLearn은 공정집행자(Fairness Enforcer)를 생성해 분류기와 비교하고 boosting 기법을 응용하여 특정 속성에는 가중치를 부여하여 분류 알고리즘에서 공정한 분류 규칙을 산출한다. 기존 머신러닝에 공정성에 대한 양적 정의를 통해 완화하거나, 분류자의 제한을 없애고 데이터를 사전처리하거나 기본 분류기를 블랙박스 방식으로 대체한다. 또한 기존 머신러닝의 모델에 Wrapper"로 사용되기 때문에 적용이 간편하다.
    • 43회포럼1
      43회포럼1
      43회포럼2
      43회포럼2
      43회포럼3
      43회포럼3
      $(".anyslider").anyslider({ animation : "fade", showBullets : false }); $(".anyslider").hover( function() { $(".anyslider").children("a").css("filter", "alpha(opacity=1)"); $(".anyslider").children("a").css("opacity", 1); }, function() { $(".anyslider").children("a").css("filter", "alpha(opacity=0)"); $(".anyslider").children("a").css("opacity", 0); } ); $(".anyslider").children("a").focus(function(){ $(".anyslider").children("a").css("filter", "alpha(opacity=1)"); $(".anyslider").children("a").css("opacity", 1); }).blur(function(){ $(".anyslider").children("a").css("filter", "alpha(opacity=0)"); $(".anyslider").children("a").css("opacity", 0); }); $(function () { console.log($(".anyslider").height($(".anyslider > .as-slide-inner >div:visible").eq(0).height())); });