인공지능의 윤리, 트롤리 딜레마(Trolley Problem)
- 인공지능 및 데이터과학/인공지능 기술
- 2019. 5. 13.
전세계적 베스트 셀러인 JUSTICE를 보면 처음부터 사람의 머리를 꽝 때리는 내용이 나온다. 바로 공리주의에 관련된 내용과 트롤리 딜레마에 대한 내용이다. 공리주의는 쉽게 말해서 대다수의 이익을 위한 행동을 뜻하며, 트롤리 딜레마는 바로 이러한 공리주의에 관련된 윤리학 실험이다. 인공지능의 가장 큰 적은 기술의 진보일 것 같지만 아이러니 하게도 이러한 윤리와 규칙, 철학이 가장 큰 장애물이다.
지금도 이슈지만, 한참 자율주행 자동차가 엄청난 관심을 받았던 시기가 있었다. 곧 운전에서 해방이 된다는 신나는 상상을 하고 있는 와중 전기 자동차의 선두주자인 테슬라(TESLA)에서 자율주행을 설정한 운전자가 죽고, 우버에서는 보행자를 죽게 만든 사고가 발생하면서 자율주행 자동차에 대한 심각한 회의론이 불기 시작하였다.
게다가 보험회사들은 자율주행자동차는 보험을 할 수 없다는 것과 우버(UBER)의 사고 이후로 수많은 사람들이 자율주행자동차를 거부하기 시작하면서, 곧 탈 수 있을 것 같은 이 신기술은 기술과 동떨어진 새로운 문제(철학과 윤리)로 인하여 기술의 진보가 힘들어진 실정이다.
트롤리(광차) 딜레마
- 전차에 무조건 사람이 치여 죽고마는 상황에서 어떤 사람을 치게 만들지 결정하는 윤리학 실험
상황 1
전차가 운행 중 이상이 생겨 제어 불능 상태가 되었습니다. 이 상태로 가다가는 선로에 있는 5명이 치여죽고 맙니다. 그러나 다행히 전차의 방향을 변환할 수 있고, 그러면 다른 선로의 1명이 죽게 됩니다. 당신은 선로를 변경하시겠습니까?
많은 사람들이 위와 같은 상황에서는 대부분 "선로를 변경하겠다"라는 선택을 하게 된다. 이러한 선택은 "이성적 판단"이라 생각하며, 공리주의를 추구하는 사람들이 많다. 어쩔수 없이 죽게 되는 상황이라면, 최소한의 인원만 죽는 것이 맞다라고 생각을 한다.
상황 2
철로 위의 육교에서 뚱뚱한 사람과 이 상황을 목격하고 있습니다. 뚱뚱한 사람을 철로에 밀게 되면 전차가 멈출 수 있다고 가정하겠습니다. 당신은 이러한 상황에서 뚱뚱한 사람을 밀어서 5명을 살리겠습니까?
사실 이것은 "상황 1"과 동일하다. 선로를 변경하여 전차로 죄 없는 사람을 죽이는 것과 누군가를 밀어서 선로의 피해를 1명으로 최소화한다는 것은 동일하다. 이 사람은 살인을 저질를 수 밖에 없는 상황에서 5명의 죽을 운명의 사람보다 죄 없는 1명을 선택하는 것이다.
그러나 대다수는 "상황 2"에서 뚱뚱한 사람을 밀지 않는 것을 선택한다. 왜냐하면 뚱뚱한 사람을 밀어서 철로에 치이게 하는 행위는 직접적인 살인 행위라 판단이 들고, 상황 1에서의 선로 변경은 간접적인 살인 행위라 느끼기 때문이다.
즉 첫번째는 도덕적으로 용서를 받을 수 있다 생각하고 두번째는 도덕적으로도 용서가 안된다고 생각을 하는 것이다. 실험 결과, 상황 1에서는 피실험자들의 89%가 "도덕적으로 허용 가능하다."고 대답한 반면 상황 2에서는 11%만이 "그런 행위가 도덕적으로 허용 가능하다."고 대답하였다.
3가지의 비도덕적 행위
사람의 도덕적 판단은 이성이나 이론보다는 직관이나 감정의 영향을 받고 있으며, 어떠한 요인이 비도덕적이라고 판단받는가를 다음의 세 가지로 정리할 수 있다. (Fiery Cushman et al. The role of reasoning and intuition in moral judgment)
행동의 원리
- 행동함으로써 일어난 폐해(가령 누군가의 죽음)는 행동하지 않아 일어난 폐해보다 더 비도덕적이라고 판단받는다.
의도의 원리
- 의도적으로 한 행동이 의도적이지 않은 행동보다 더 비도덕적이라고 판단받는다.
접촉의 원리
- 직접적 신체 접촉이 수반되는 위해가 그렇지 않은 위해보다 더 비도덕적이라고 판단받는다.
인공지능에서의 트롤리 딜레마
자율주행 자동차 상황
당신은 자율주행자동차를 타고 있다. 그러나 당신의 차를 인지하지 못한 5명의 가족이 도로를 건너고 있다. 가족을 피하려면 큰 사고가 나서 당신이 죽을수도 있다. 인공지능은 이때 어떠한 선택을 해야 될 것인가?
만약 인공지능이 인도에 걸어다니는 사람을 피하는게 최우선으로 인지를 하여 운전자를 죽일 수 있다고 가정을 해보자. 만약에 사람이 운전하고 있다면 어쩔 수 없이 가족을 치게 될 것이고, 평생 죄책감에 살겠지만 당신의 목숨을 부지할 수 있다. 그러나 A.I가 공리주의로 무장을 한다면 당신의 목숨을 위협할 수 있다.
프랑스 툴루즈 경제대, Jean-François Bonnefon 논문 자료
당신은 이러한 자동차를 당신은 탈 것인가? 내 목숨이 언제 날아갈지 모르며, 이를 이용한 신종 범죄가 일어날지도 모른다.
인공지능의 운전자의 목숨을 최우선으로 보장하는 알고리즘을 장착하였다고 가정을 해보자. 이럴 경우 A.I가 사람을 살해하는 것과 동일하다. 즉 운전자를 살리기 위해서 다른 사람을 죽인 셈이다. 게다가 이러한 알고리즘을 장착할 경우 해당 알고리즘의 수정을 요청할 시민들은 너무나도 많을 것이다. 기계가 날 죽일지도 모르는 불안감에 사람들은 도로를 걸어야 될지 모른다.
참고자료
https://ko.wikipedia.org/wiki/%EA%B4%91%EC%B0%A8_%EB%AC%B8%EC%A0%9C
Fiery Cushman et al. The role of reasoning and intuition in moral judgment
연관자료
'인공지능 및 데이터과학 > 인공지능 기술' 카테고리의 다른 글
AI 차별을 방지하는, 공정한 기계학습(Fair Machine Learning) (0) | 2020.01.20 |
---|---|
특정 문제의 해결을 위한, 전문가 시스템(Expert System) (0) | 2020.01.02 |
인공지능(AI)의 개념과 인공지능의 4단계 (0) | 2019.05.10 |
성향분석(Personality Anaysis)의 연구 배경 및 목적 (0) | 2018.10.30 |
블라인드 채용에 대응한 성향 분석에 관한 연구 (0) | 2018.10.30 |