현대엠엔소프트 공식 기업 블로그 :: 트롤리 딜레마, 자율주행차의 윤리를 생각하다

트롤리 딜레마에 대해 들어보신 적이 있으신가요? 트롤리 딜레마는 윤리학에서 흔하게 인용되는 사고실험의 하나로, 수년 전 히트했던 마이클 샌델의 저서 정의란 무엇인가에도 등장한 바 있습니다. 이 실험은 사람들에게 트롤리(레일 위를 주행하는 전차의 일종)의 브레이크가 고장이 난 특정 상황을 제시하고, 소수의 희생으로 다수를 구하는 것이 윤리적으로 옳은지에 대해 묻습니다. 트롤리 딜레마는 영국의 윤리 철학자 필리파 푸트가 처음으로 제안한 이래 많은 이들에 의해 분석되고 실험되었는데요. 자율주행 시대가 가까워지며, 트롤리 딜레마가 점차 현실적인 문제로 다가오고 있습니다.

 

 

윤리적 판단의 극한까지 달려가는 사고 실험, 트롤리 딜레마

트롤리가 브레이크가 고장난 상태로 레일 위를 달리고 있습니다. 트롤리가 달리는 방향으로 난 레일 위에는 다섯 명의 무고한 인부들이 묶여 있어, 차량을 그대로 뒀다가는 5명이 모두 희생 당합니다. 그런데 한 가지 선택지가 더 있습니다. 바로 당신 앞에 놓인 레버를 당기는 것입니다. 그 레버를 당기면 전차의 방향이 바뀌고, 다섯 명은 목숨을 건지게 됩니다.

 

하지만 그 다른 방향의 레일 위에는 한 명의 인부가 묶여 있습니다. 당신이 레버를 당겨 트롤리의 방향을 바꾸면, 원래 진행 방향 위에 있던 다섯 명의 인부는 살 수 있지만 다른 방향에 묶여있는 한 명의 인부는 희생될 수밖에 없습니다. 트롤리는 계속 달리고 있습니다. 이 절체절명의 상황에서 여러분께서는 트롤리의 방향을 바꾸시겠어요?

 

실제 상황이 아니라는 게 다행이라고 느껴지시죠? 위에서 설명한 가상의 상황이 바로 필리파 푸트가 고안한 사고실험인 트롤리 딜레마입니다. 당시 이 물음에 대해 응답자의 89%가 방향을 바꾸어야 한다고 응답했다고 합니다.

 

방향을 바꾼다라는 결정은 곧 5명의 생명이 1명의 생명보다 중요하다는 공리주의적 관점에서 비롯된 것으로 볼 수 있습니다. 공리주의는 19세기 중반 영국에서 제레미 벤담, 제임스 밀, 존 스튜어트 등을 중심으로 전개됐던 사상으로, ‘최대 다수의 최대 행복실현을 윤리적 행위의 목적으로 보았습니다.

 

아무 일도 하지 않는다라고 결정할 수도 있습니다. 어떤 이유에서라도 한 사람의 생명을 앗는 일은 윤리적이지 않다는 생각에서 나온 결정이겠지요. 이러한 논리는 어떤 행위의 결과가 그 행위의 도덕성을 판단하는 데 아무런 역할도 할 수 없다고 주장한 칸트의 의무론적 윤리학과 닿아 있습니다.

 

출처: TED-Ed

 

여기까지만 생각해도 머리가 아파오는데, 트롤리 딜레마에는 여러 가지 변형 버전도 존재합니다. 그 중 대표적인 것이 미국의 도덕 철학자 주디스 톰슨이 추가적으로 제안한 문제로, 다음과 같은 상황을 가정하고 물음을 던집니다.

 

브레이크가 고장난 트롤리가 레일 위에 묶인 다섯 명의 인부를 향해 달리고 있습니다. 당신은 그것을 육교 위에서 지켜보고 있고, 당신 앞에는 덩치가 큰 어느 사람이 서있습니다. 무거운 것을 트롤리 위로 떨어뜨리면 그것을 멈추게 하는 것이 보장되지만, 당신은 트롤리를 멈추게 하기에 너무 가볍습니다. 이때 당신 앞에 서있는 그 사람을 밀쳐야 할까요?

 

기본적 트롤리 문제에서 상당수의 사람들이 트롤리의 방향을 변경해 5명 대신 1명의 인부를 희생시키는 것이 보다 윤리적이라고 생각했던 것과 달리, 주디스 톰슨의 트롤리 문제에 대해서는 응답자의 10% 정도만이 육교 위 사람을 밀쳐도 된다고 답했습니다.

 

이와 같은 결과에는 다수의 생존이 더 중요하다는 공리주의적 판단보다는 사람을 고의로 죽여서는 안 된다는 생각이 크게 작용한 것으로 볼 수 있습니다. 두 경우에서 응답자의 뇌 활동도를 조사한 결과, 첫 번째 문제에서는 합리적이고 이성적 의사결정에 관여하는 전전두엽 부위가, 두 번째 문제에서는 정서와 관계된 편도체 등의 부위가 활성화된 것으로 나타났습니다.

 

브레이크가 고장난 트롤리가 무고한 사람들을 향해 달려오고 있고, 다수와 소수 중 어느 한 쪽을 희생시켜야 한다는 비슷한 상황에서도 설정이 조금씩 변경됨에 따라 판단의 과정이 조금씩 달라지는 것이죠. 트롤리 딜레마는 인간의 윤리와 심리를 깊이 파고드는, 생각보다 복잡한 문제였군요.

 

 

트롤리 딜레마, 자율주행차가 풀어야 할 문제가 되다

출처: Scalable Cooperation

 

브레이크가 고장난 자율주행 자동차가 횡단보도를 향해 달리고 있습니다. 횡단보도에서는 보행자들이 신호를 무시하고 무단횡단을 하고 있습니다. 이때 차량에는 두 가지 선택지가 있습니다. 먼저 차선을 바꾸지 않고 그대로 직진할 수 있습니다. 이 경우, 횡단보도를 건너던 아기 2, 남자아이 1, 1마리, 범죄자 1명이 사망하게 됩니다. 이를 피하기 위해 방향을 틀면 도로 위에 있던 콘크리트 장벽에 충돌해 차량에 탑승해 있던 노인 여성 1, 노인 남성 1, 아기 1, 남성 운동선수 1명이 사망하게 됩니다.

 

 

어떤 선택을 하든 희생되는 이들의 숫자는 동일하지만 양쪽의 구성원이 아기, 노인, 범죄자, 동물 등으로 다양해 선택이 굉장히 어렵습니다. 좀 새로워 보여도 결국 우리를 괴롭게 만드는 또 하나의 트롤리 딜레마 변형 문제 아니냐고요? 맞습니다. 다만 이번에는 윤리학자에 의해 만들어진 사고실험이 아닙니다. 위에서 설명한 내용은 미국 매사추세츠공과대학(MIT) 미디어랩에서 진행한 설문조사 윤리 기계(Moral Machine)’의 한 문항입니다. 윤리 기계 사이트(http://moralmachine.mit.edu/)에 접속하면 이 설문조사에 참여해 트롤리 문제를 다양하게 변형한 13개의 문항에 응답할 수 있습니다.

 

이 이상하고도 괴로운 조사는 자율주행 자동차와 같은 기계 지능이 수행해야 할 도덕적 결정에 대한 인간의 인식 정보를 모으고자 만들어진 플랫폼입니다. 자율주행차가 마주칠 수 있는 상황을 제시하고, 응답자로 하여금 외부 관찰자로서 자신의 윤리관에 비추어 두 보기 중 하나의 선택을 하도록 만들죠. 응답자들은 자신이 내린 결과를 공유하고 이에 대해 다른 이들과 토론하거나 다른 시나리오를 설계할 수도 있습니다.

 

출처: nature video

 

이 조사에는 전세계 수백만 명의 사람들이 응답했고, 조사 결과는 지난해 학술지 네이처(Nature)’논문으로 실렸습니다. 이 논문에 드러난 조사 결과는 윤리나 도덕이라는 것이 결코 한 가지로 정의될 수 없음을 보여줍니다.

 

조사 결과를 통해, 먼저 전세계에 걸쳐 통하는 기본 원칙을 확인할 수 있습니다. 동물보다는 사람을, 소수보다는 다수를, 그리고 아이를 우선시하는 것입니다. 반면 선택의 경향에 따라 서구권(Western), 동양권(Eastern), 오세아니아 및 남미권(Southern)이라는 3개의 범주로 나누어 파악이 가능하다는 것도 조사 결과의 주요 특징입니다. 각 범주에 속하는 사람들은 해당 지역의 문화적 특성에 영향을 받은 몇몇 특징적인 경향을 보였습니다. 예를 들어 동양권의 응답자들은 어린 사람을 구하는 것에 대한 선호도가 상대적으로 낮았다고 합니다. 이로부터 동양에서는 다른 지역권에 비해 나이 든 사람들을 더 존중한다는 점을 유추할 수 있고요. 

물론 보다 많은 사람들이 선택한 결과가 실제 자율주행 알고리즘에 적용해야 한다거나, 지역권마다 다른 알고리즘을 설계해야 한다는 결론을 낼 수는 없습니다. 논문 저자인 MIT 미디어랩 에드먼드 아와드(Edmand Award) 박사 역시 이 결과를 대중들이 기술 설계와 정책 결정의 윤리에 어떻게 반응하는지를 이해하는 기초 자료로 사용해야 한다고 언급했습니다.

 

하지만 기술이 빠르게 발전하는 시대를 살아가는 우리에게 여러 가지 생각할 거리를 던져준다는 것은 분명합니다. 우선 인간의 개입 없이 차량이 모든 판단을 내리는 완전 자율주행의 실현을 위해서는 공학뿐만 아니라 윤리학적 측면에서의 고민도 필요하다는 것을 알 수 있습니다. 트롤리 딜레마와 같은 상황이 발생할 확률은 아주 낮겠지만, 혹시라도 발생할 수 있는 긴급한 상황에서 자율주행차는 탑승자와 보행자 중 어느 쪽을 우선적으로 보호해야 할까요? 노인과 아이 중 선택해야 한다면 어떨까요? 지역에 따라 문화가 다른데, 이 다름은 어느 지점으로 수렴되어야 할까요? 인공지능에 대한 규제 문제는 어떻게 해야 할까요? ‘윤리 기계실험은 이 무수한 물음의 시작점이 되어줍니다.

 

혹자는 어느 한 쪽을 선택하게끔 알고리즘을 설계하는 것 자체가 누군가가 희생되어야 한다는 것을 전제로 하는 만큼 위험할 수 있음을 지적합니다. 그리고 자율주행에 필요한 인공지능과 인간의 윤리, 도덕적 가치를 일치시키는 알고리즘을 짠다고 해도, 사회적 합의를 위해서 오랜 토론이 필요할 겁니다. 하지만 생명이 달린 일이니, 완전 자율주행 상용화가 조금 더디게 실현되더라도 꼭 거쳐야 할 과정이겠죠.

 


맵피와 함께 가까운 서점 찾아가기!

 

자율주행과 윤리의 문제에 대해 알아가다 보니 생각이 많아지고, 더 깊이 사유하고 싶지 않으신가요? 그렇다면 오늘 포스팅에 등장한 윤리학, 공리주의, 의무론, 자율주행, 인공지능 등의 주요 키워드와 관련된 책을 읽으며 사유의 폭을 넓혀보세요. 맵피를 켜고 서점을 검색하시면, 여러분과 가장 가까운 곳에 있는 서점을 맵피가 알려드립니다.

 

 

*출발지와 목적지, 경유지에 따라 거리와 시간, 요금이 달라집니다.


 

자율주행이 우리 생활과 가까워지는 만큼 자율주행과 윤리에 관한 논쟁은 더 뜨거워질 것으로 예상됩니다. 물론 이런 사고가 발생하지 않도록 자동차 자체의 안전성을 높이고 도로 교통 체계를 더 정교하게 만드는 일이 우선돼야 하겠지만, 그렇다고 자율주행차 개발에서 인공지능의 윤리 문제를 아예 배제할 수는 없을 것입니다. 그리고 윤리의 문제는 필연적으로 사회적 합의를 필요로 하고, 사회 구성원들은 자신의 안전이 달린 이 문제에 대해 관심을 가져야겠죠. 오늘의 포스팅이 자율주행과 윤리에 대해 다시 한 번 생각해보게 만드는 계기가 되었기를 바랍니다. 지금까지 현대엠엔소프트였습니다!

Posted by 현대엠엔소프트

댓글을 달아 주세요