인공지능

자율주행 트롤리 난제(Trolley Problem)

망고노트 2025. 11. 19. 12:00
728x90
반응형

자율주행 트롤리 난제(Trolley Problem)는 피할 수 없는 사고 상황에서 자율주행차가 어떤 윤리적 결정을 내리도록 프로그래밍해야 하는지에 대한 딜레마를 말합니다.

이는 고전적인 '트롤리 딜레마' 철학 문제를 기술에 적용한 것입니다.


1. 🚃 딜레마의 핵심

핵심은 **'누구를 희생시킬 것인가?'**에 대한 선택입니다. 이 결정은 사고 순간에 내려지는 것이 아니라, 엔지니어가 미리 코드(알고리즘)로 설계해야 한다는 점에서 훨씬 더 복잡합니다.

가상의 시나리오: 자율주행차가 브레이크 고장으로 질주하고 있습니다.

  • 선택 A: 직진하면 횡단보도를 건너는 보행자 5명을 쳐서 사망에 이르게 합니다.
  • 선택 B: 핸들을 꺾어 벽에 부딪히면, 차에 타고 있는 탑승자 1명이 사망합니다.

AI는 어떤 선택을 하도록 프로그래밍되어야 할까요?


2. 🧮 '결과' 중심의 접근 방식

이 문제를 사회 전체의 피해를 최소화하는 방향으로 접근할 수 있습니다. 이 관점은 **"가장 많은 사람에게 가장 큰 이익(혹은 가장 적은 피해)이 가도록 행동해야 한다"**는 원칙에 기반합니다.

  • 계산: 이 논리에 따르면, 5명의 생명을 구하는 것이 1명의 생명을 구하는 것보다 더 나은 결과입니다.
  • 결론: 따라서 AI는 1명의 탑승자를 희생시키더라도(선택 B), 5명의 보행자를 구하도록(선택 A 방지) 프로그래밍되어야 합니다. 이는 전체적인 피해의 총량을 줄이는 가장 합리적인 선택입니다.

3. ⚠️ 이 접근 방식의 현실적 문제

하지만 이 '피해 최소화' 원칙을 현실에 적용하는 데는 심각한 장애물이 있습니다.

  • 시장성의 문제 (누가 이 차를 사는가?): "이 차는 보행자를 구하기 위해 탑승자인 당신을 희생시킬 수 있습니다"라고 프로그래밍된 차를 과연 누가 돈을 내고 구매할까요? 대부분의 사람들은 자신을 보호해 주는 차를 원할 것입니다.
  • 구매의 역설: 만약 사람들이 이 "윤리적인" 차를 구매하지 않고, 덜 안전한 기존 차를 계속 운전한다면, 사회 전체의 교통사고 사망자 수는 줄어들지 않을 것입니다. 오히려 자율주행 기술 도입이 늦어져 더 많은 사람이 다치거나 사망하는, 결과적으로는 더 나쁜 결과를 초래할 수 있습니다.
  • 변수의 문제: 계산이 항상 단순하지 않습니다.
    • 만약 탑승자가 어린아이이고 보행자가 무단횡단을 한 성인이라면?
    • 만약 탑승자가 3명이고 보행자가 2명이라면?
    • 만약 탑승자가 저명한 과학자이고 보행자가 범죄자라면? 이런 변수들을 AI가 판단하고 생명의 가치에 순위를 매기도록 하는 것은, 사회적으로 엄청난 논란을 일으킵니다.

결국 자율주행 트롤리 난제는 **'최대 다수의 안전'**이라는 공공의 이익과 **'나(탑승자)의 안전'**이라는 개인의 이익이 정면으로 충돌하는 문제입니다.

728x90
반응형