인공지능의 옳고 그름에 대한 판단 : Can AI learn the ethics?

날짜2016.12.21
조회수25187
글자크기
  • “우리는 어떤 도덕적 가치들을 채택하고 어떤 도덕적 입장을 취할 것인지를 결정해야 한다.”- John Mackie(1977)
    • 존매키(John Mackie)에 의하면, 도덕은 옳고 그름(선악)의 선택이라고 할 수 있다. 과거 선악을 판단하는 것은 신의 영역이었고, 이제는 판사의 영역이기도 하다. 그러나, 모든 영역을 판사에게 맡기기는 어려운 상황에 직면하고 있다. 인공지능이 사회의 작지 않은 영역에 들어서면서 새로운 고민을 주기 때문이다. 인공지능에 대한 대응체계 중 하나가 윤리이다. 인공지능은 윤리를 학습할 수 있는가? 쉬운 질문이기도 하지만, 답을 찾기 어려운 질문이기도 하다. 이러한 면에서 인공지능 연구는 인간에 대한 성찰이 필요한 학문이자, 응용윤리이기도 하다.
    • 윤리연구는 기술적 도덕, 도덕철학, 응용윤리 등을 다룬다. 도덕철학은 옳고 그름에 대한 가치를 분석하고, 응용윤리는 하나의 사안에 대해 도덕철학을 적용하는 것이다. 이처럼 윤리연구는 서로 분리된 연구가 아니라는 것이다. 본 발표는 윤리를 인공지능이 학습할 수 있는지, 또는 프로그래밍으로 가능한지에 대한 고민이자, 미완의 결과이다.
  • 왜, 윤리인가?
    • 인공지능은 미지의 기술이다. 인공지능이 어떻게 발전할지, 쓰여질지 알 수 없기 때문이다. 인공지능에 대한 윤리를 논의하는 것은 인공지능에 대한 우려를 불식시킬 수 있는 하나의 방법이다. 인공지능에 대한 많은 논란에 대해 논의나 대응이 없다는 것은 인공지능에게 선수와 동시에 심판의 자격을 주는 것과 다름이 없다. 내버려 두는 것이 방법이 아니라는 것이다. 인공지능 윤리는 오랫동안 구체적인 수준에까지 논의가 되어야 할 주제이다. 인류에게 윤리는 다양한 이해관계자가 포함되는 영역이다. 인공지능은 결국, 인류와의 공존까지 고려되기 때문에 이해관계자는 전 인류가 된다.
    • 인공지능이 어떤 사안에 대해 판단할 때, 그 결과가 어떤 영향을 미칠지는 알 수 없다. 그렇기 때문에 사전에 인공지능을 통제하기 위한 방안이 강구되고 있다. 그 중 하나가 윤리이다. 윤리는 법과 더불어 규범적 가치를 지니고 있다. 따라서, 법제도가 없는 상황에서 윤리는 최소한의 규범적 의미를 지니기 때문에 중요하다. 윤리가 강제성은 없더라도, 사회적 합의로써 규율 할 수 있음을 의미한다.
    • 인공지능은 어떠한 판단을 내려야 한다. 예를 들면, 트롤리 딜레마처럼 자율주행 중 사고에 직면했을 때 어떤 선택을 해야 하는 지는 많은 논란이 있는 주제이다. 대체적으로 인공지능은 다수를 희생시키는 것보다 소수를 희생시키는 선택을 내릴 가능성이 크다. 그렇지만, 현실적으로 보행자와 탑승자의 희생이 선택되는 상황에서 어떤 선택을 해야 할지는 여전히 쉬운 판단이 아니다. 이러한 상황에 대해 인공지능은 어떤 선택을 해야 할 지가 바로 인공지능 윤리에 대한 논의가 필요한 이유이다. 인간의 안전을 위한 선택이어야 하기 때문이다.
  • 윤리는 객관적인가?
    • 윤리는 인류의 수많은 가치가 경험과 학습을 통해 인간에게 체화 된 것이다. 그렇지만, 그것도 사람마다 다르게 인식될 수 있다. 하나의 상황에 대해 많은 사람은 서로 다른 선택을 할 가능성이 높다. 이런 면에서 윤리는 객관적이라고 보기 어렵다. 합의된 윤리가 있더라도 개개인이 갖는 윤리적 기준은 상이할 수밖에 없기 때문이다. 문화의 일종인 윤리를 객관화시키기는 어렵다. 윤리가 갖는 보편적인 가치의 다양한 이해와 해석으로 말미암아 인공지능에 담겨야 할 윤리도 또한 다양할 수밖에 없다.
    • 이처럼 윤리적이라는 것은 사람의 대체적인 가치관에 체화 된 것이지만, 대중의 평균적 가치이지 절대적인 가치라고 보기 어려운 것이다. ‘최소한의 도덕’인 법률은 이러한 윤리를 구체적인 텍스트로 적고 있다. 윤리를 구체화한 법률의 해석도 다른데, 윤리 자체는 말할 나위도 없을 것이다.
    • 윤리는 문화적 맥락에서 보면 나라, 민족마다 서로 다른 평가를 받게 된다. 이처럼 사회적 가치에 따른 차이도 있겠지만, 개인적 경험에 따른 차이도 무시하기 어렵다. 윤리는 사람마다 차이가 있음을 인식할 필요가 있다.
  • 로봇에게 윤리를 프로그래밍할 수 있는가?
    • 위에서 본 것처럼, 사람에게도 어려운 것이 윤리임을 알았다. 그런데, 그렇게 어려운 윤리를 로봇에게 강요할 수 있는가? 물론, 로봇이 윤리적이어야 한다는 당위성은 인정할 수 있다. 사람에게 미치는 영향이 작지 않기 때문에 그 선택이나 판단에서 윤리적인 요소가 반영되어야 한다는 것이다. 그러나, 방법이 문제다.
    • 먼저, 다음과 같은 질문을 해보자. 로봇에게 윤리라는 가치를 프로그래밍 할 수 있는가?
    • 윤리라는 가치는 경우의 수가 작지 않다. 인간사회에서 윤리는 때로 각각의 윤리적 가치마다 충돌하기도 하며, 법률과도 상이한 결론에 이르게 된다. 예를 들면, 남의 지적재산권을 도용하면 않된다는 가치는 윤리적이기도 하며, 법적 가치이기도 하다. 그러나, 공정이용(fair use)이라는 제도에 의해 허용되기도 한다. 법적으로 허용되지만, 윤리적으로 여전히 명쾌하지 않다.
    • 이처럼 하나의 현상에 대한 차이가 있는 상황을 어떻게 로봇에게 프로그래밍할 수 있을지 의문이다. 적어도, 로봇에게 윤리는 서로 충돌하는 가치를 일관되게 유지하는 것이 객관적이라고 평가할 수 있을 것이다. 물론, 일관된다는 의미는 유연성이 떨어질 수 있다는 의미도 가능하다. 사회는 일관성은 물론 유연성도 요구받는다. 하나의 사실에 대해서도 그 판단은 대중이 이해할 수 있는 일관성을 가져야하지만, 하나하나의 사실은 대중이 이해하는 다른 가치를 담을 가능성도 있기 때문에 유연해야하는 것이다. 이것을 로봇이 이해할 수 있을까?
    • 또다른 질문을 해보자. 로봇에게 윤리학습은 가능한가?
    • 앞서, 하나의 사실에 대한 대중의 생각은 서로 상이할 수 있음을 살펴보았다. 상이한 점은 대화와 타협이라는 인간 커뮤니케이션을 통해서 합의점을 찾아감으로써 조정할 수 있다. 인간이 가지는 매력이다. 그러나 로봇은 그럴 수 있을까? 인간은 수천년의 경험이 DNA에 기록된다. 일종의 프로그래밍된 것이다. 그 경험은 누가 학습시켜주지 않은 선험적 체계이다.
    • 그러나, 로봇은 하나하나 가르쳐주지 않으면 스스로 판단하기 어렵다. 행동패턴은 기계학습(machine learning)을 통해 가능하다고 하더라도, 맥락(context)에 대한 이해는 어떻게 해야하나? 기계학습은 설계자의 의도가 강하게 반영된다. 예를 들면, 구글이나 페이스북에서 제공하는 알고리즘은 회사의 이익을 위해 설계되고, 코딩된 것이다. 알고리즘은 인간의 부족한 일관성을 극복할 수 있겠지만, 객관적이지 못하다는 평가를 받게된다. 수년전 한국에서는 네이버의 검색결과와 구글의 검색결과의 공정성, 객관성에 대해 논란이 제기된 적이 있다. 구글은 알고리즘에 의한 결과이기 때문에 객관적일 것이라는 평가를 받은 반면, 네이버는 사람의 편집이 들어가기 때문에 그렇지 않다는 것이었다.
    • 이는 알고리즘은 물론 기술에 대한 무지의 소산이다. 기술은 사용자의 의도에 따른 결과를 가져온다. 이를 간과한 것이다. 알고리즘 자체는 일관성을 가져올 수 있지만, 객관적인 것이 아니라는 점을 이해할 필요가 있다. 그러나 대중은 자칫 일관성이 객관적인 것으로 오해될 수도 있다는 점을 인식하여야 한다. 결국, 윤리에 대한 법정책적 판단이 내려질 가능성이 높다.
    • 인공지능의 윤리도 객관적이지 못하다는 점을 말하고자 한다. 인공지능이 설계되고, 개발되고 이용되는 과정에서 윤리문제가 제기될 수 있겠지만, 그것이 윤리적이라는 판단을 받기위해서는 대중의 판단을 받는 것이 필요하다. 그러나, 그 대중은 다양한 스펙트럼으로 인공지능 윤리를 바라볼 것이다. 하나의 답을 하기 어렵다. 아니, 없을 수도 있다. 결국, 윤리에 대한 법정책적 판단이 내려질 가능성이 높다.
    • “차라리, 사람이 로봇의 탈을 걸치고 행동하는 것이 훨씬 쉬운 해결책이 될 가능성이 높다.”
    • 인공지능은 기계학습을 통해 사회화 되고 있다. 챗봇(chat bot)이 대표적이다. 부정적인 사례이긴 하지만, MS의 챗봇인 테이(Tay) 사례를 보면 인공지능의 학습은 의도성이 반영될 수 있다. 인종차별, 여성차별 관련 메시지를 학습한 테이(Tay)는 16시간만에 셧다운(shutdown)되었다. 테이(Tay)의 대답은 윤리적이지도, 법적으로도 허용되는 것이 아니었기 때문이다. 본 사례는 인공지능의 학습이 윤리적이지 않을 수 있다는 것을 반증한다. 반대로 보면, 윤리적인 내용에 대해 어느 정도 학습이 가능할 수 있음을 보여준다. 즉, 딥러닝(deep learning)을 통해 어느 정도 기계학습이 가능할 것으로 생각된다.
  • 로봇윤리의 가이드라인은 적절한가?
    • 테이(Tay) 사례를 보고 생각할 수 있는 것은 로봇에게 미래의 기준을 제시하는 방안이다. 사람에게 윤리나 도덕을 강제할 수는 없다. 예를 들면, 거짓말을 하지말라는 것은 윤리적인 선태이지, 이를 법률로 강제할 수 있는 것은 아니다. 다만, 허위표시를 통해 타인의 법익을 침해할 경우라면 그에 따른 법적 처벌을 받을 수는 있을 것이다. 윤리를 법제화하는 것은 다른 법익의 침해를 가져올 수 있기 때문에 쉽지 않다. 이처럼 윤리는 누구에게 강요하기 어렵다. 그렇다면, 로봇에게 강요하는 것은 어떠한가? 윤리적인가, 아닌가?
    • 만약, 강제할 수 있다는 사회적 합의가 이루어졌다면 누구나 납득할 수 있는 윤리의 수준(guideline)을 제시하는 것은 가능한가? 그러나 그 세부적인 기준에 대한 합의는 쉽지 않은 일이 될 것이다. 무엇보다 윤리가 가지는 문화적 차이를 극복하기 쉽지 않기 때문이다. 그렇다면, 인공지능의 윤리는 문화적 구분에 따른 국가, 민족 윤리로 한정되어야 하는가?
    • 가이드라인이 합리적인 방법인지는 모르겠지만, 몇 가지 방안을 제시하고자 한다.
    • 로봇윤리의 가이드라인
    • 방법 1 내지 2는 이를 프로그래밍하거나, 구조하는 것은 또 다른 방법이다. 쉬운 해결방법은 이해관계자에게 책임을 떠넘기는 것이지만, 궁극적인 해결책은 아니다. 결국, 1과 2의 데이터셋(data set)을 기계학습하는 것이 그나마 가능한 방법이다. 그러나 문제는 인공지능은 다양성이 존재하지 않는 전체주의적 산물이 될 수 있다는 점이다. 알고리즘과 데이터셋을 통해, 의도적으로 결과를 만들어낼 수 있기 때문이다. 미래 어느 날, 인공지능이 진행하게 될 소송에서 이해관계자가 알고리즘과 데이터셋을 왜곡할 경우 어떤 결과가 나올 것인지 상상해보자!
  • 법은 논리가 아니라 경험이다. - 홈즈 판사
    • 법은 다양한 상황에 대한 공백을 메꾸는 역할을 한다. 인공지능의 위험성이 예견되는 데, 그에 대한 대응 근거가 없는 경우에 적용하기 어렵다. 결국, 연혁적인 문제를 경험한 후에 입법이 이루어지는 사례가 작지 않다. 이러한 점이 법의 보수성이라는 점에서 비판을 받지만, 법적 안정성을 위한 선택이기도 하다. 기술윤리도 이런 면에서 보면 상당히 늦거나, 보수적일 수 있다.
    • 물론, 선험적으로 법이 기술을 시뮬레이션(simulation)하여 규제방향을 정할 수도 있다. 그렇게 되면, 기술에 대한 유연성이 떨어진다. 기술 규제가 될 수 있는 상황에 직면하게 된다. 그러한 위험을 막기 위해 법은 경험을 강조한 것이다. 인공지능도 다르지 않다. 인공지능의 위험성은 높아지지만, 아직은 구체화되기 어렵다. 예를 들면, 테슬라 차량을 운행 중 일어난 사망사고는 운전자의 과실이다. 테슬라는 이용약관을 통해, 위험책임을 운행자에게 고지했기 때문이다. 그렇지만, 이것이 법적인 면책은 가능하더라도 윤리적으로 타당하다고 단정하기 어렵다.
    • 적어도 테슬라는 완전하지 못한 제조물의 시장 출시에 대한 책임을 져야하기 때문이다. 제조물책임은 제조자의 책임을 안전한 제품을 만들어야 한다는 윤리적 수준으로까지 이끌어낼 수 있게 되었다. SW 자체의 제조물책임에 대한 논의를 이를 더욱 강화시켜줄 것이다. 인공지능의 구현도 SW로 이루어지기 때문에 다르지 않을 것이다.
    • 결국, 인공지능이 현실화되는 과정에서 나타나는 사건들을 분석하고 법적, 윤리적 대응방안을 마련하게 될 것이다.
    • 이러한 맥락에서 법은 논리가 아닌 경험을 통해 구체화되는 것임을 확인하게 된다.
  • 개발자, 이용자는 윤리적이어야 하는가?
    • 윤리는 사람의 필요에 따라 만들어놓은 문화유산이다. 윤리는 인간의 DNA에 학습되고 코딩되어있어, 어느 순간 인간은 학습한 결과를 바탕으로 선택하거나 행동하게 된다. 결국, 인류의 DNA이지만 구현되는 상황은 상이 할 수 있다.
    • 그러나 만약 인공지능이 클라우드(cloud platform)를 통해 하나의 가치체계로 수렴된다면 어떻게 할 것인가? 인공지능에게 객관성을 부여하기 어려워, 일관성을 요구하는 알고리즘을 구현하게 될 것이다. 이는 개발자인 사람의 가치가 반영되고, 이를 이용하는 이용자의 윤리가 반영될 것이다. 결국, 인공지능의 개발과 이용 과정에서 사람의 관여는 필수적일 수 있다. 따라서 인공지능에 대한 윤리는 결국 사람의 윤리에 대한 탐색에서 출발할 수밖에 없다.
    • 인공지능의 윤리는 결국 사람의 윤리인 것이다. 개발자가 좀 더 윤리적으로 개발하고, 사업자도 윤리적으로 제품을 제조하고, 이용자도 윤리적으로 제품을 이용하는 것이 필요하다. 이용자 영역에서 윤리는 테이(Tay)사례를 통해 알 수 있다.
    • 하나만 더 생각해보자. 보스턴 다이나믹스(BostonDynamics)의 ‘BigDog’을 발로 찬 youtube 영상에 대해 사람들은 “어떻게 로봇을 발로 찰 수 있을까?”라는 반응을 보였다. 이는 이용자의 윤리적인 관점으로 이해할 수 있을 것이다.
  • 법은 최소한의 도덕이다.
    • 법은 최소한의 도덕이다. 모든 도덕을 법으로 규정할 수 없기 때문이다. 도덕은 우리의 사회의 기저를 유지시켜주는 규범으로 이해할 수 있다. 도덕과 법은 충돌할 수 있다. 지금까지 그러했듯이, 그 충돌은 사회적으로 수용할 수 있는 범위에 있을 가능성이 높다. 그렇지 않으면, 법은 사회적 수용성을 담보할 수 없기 때문이다.
    • 인공지능 윤리는 법이 갖는 규범성을 넓게 적용할 수 있을 것이다. 확정적인 법규범을 반영하기 어렵기 때문이다.
    • 이러한 점에서 인공지능 윤리는 최소한의 도덕이 아닌 최대한 도덕적 적용을 요구받을 것이다. 그렇게 되면 로봇은 자신의 판단이 없는 기계적인 자동화 상태에 머무르게 될 것이다. 이는 인공지능의 발전에 규제적 역할을 하게 될 것이다.
    • 사람의 윤리와 마찬가지로 사람의 법적 책임으로 한정될 것이다. 그렇다면, 인공지능은 실체는 있으나 책임이 없는 상태로 머무르게 된다. 무과실책임을 언제까지 사람에게만 묻기는 어려운 상황이 올 것이기 때문이다. 인공지능 윤리는 인공지능의 반대가 아닌 인공지능의 긍정적 대응을 위한 수단임을 이해할 필요가 있다.
  • 정리하자면, 결국 사람이다.
    • 인공지능에 대한 논의를 위해서는 사람에 대한 진지한 성찰이 필요하다. 사람에 대한 이해 없이 인공지능이나 로봇을 제대로 알기 어렵다고 보기 때문이다. 윤리는 사람의 사회구성원으로서 가져야할 기본이다. 로봇이 사회공동체에 직간접적으로 역할을 하게 될 경우, 기본적인 자질인 윤리를 학습해야할 이유이다.
    • 그러나, 제대로 된 학습이 필요하다. 테이(Tay) 사례를 보면, 인공지능의 윤리에서 이용자의 윤리도 중요함을 알 수 있다. 인공지능이 비윤리적인 내용을 배울 수 있다는 것은 윤리적인 것도 배울 수 있다는 것을 알려준다.
    • 기계의 윤리 이전에 기계의 윤리적 이용이 중요할 수 있음을 시사한다.
    • 물론, 인공지능 윤리는 지금 당장 답을 찾기 어려운 주제이다. 그러나, 중심에는 사람이 있어야 한다. 윤리에는 사람의 가치관과 문화가 담겨있기 때문이다. 인공지능 윤리도 다르지 않다. 결국, 사람의 윤리가 답이 될 것이다.
    • 끝으로, 인공지능의 성격은 도덕적 행위자(moral agent)로서 지위를 부여받아야할 것이다. 그래야만이 로봇과 인간의 공존이 가능할 것이기 때문이다. 인공지능 윤리를 포함한 다양한 논의는 어느 일국의 문제는 아니다.
    • 인공지능은 SW와 같이, 국경을 넘나드는 주체(subject)가 될 것이기 때문에 이에 대한 논의는 국제조약의 형태로 논의되거나 채택될 필요성이 크다.
    • “선만 존재하는 세상은 과연 선한 세상일까?”
    • 본 내용은 Digital Asia Hub, SPRi 등이 공동주최한 ‘AI and Ethics, Safety and Societal Impact(2016.12.16.)에서
    • 필자가 발표한 ‘Can AI learn ethics?’을 풀어서 쓴 글임을 밝힙니다.