438
2022-04-17 15:23:48
17
자율주행 자동차가 등장하기 시작하면서 이 문제가 거론된건데...
사람도 제대로 판단할 수 없는 도덕적 문제를 AI는 어떻게 판단하게끔 프로그래밍해야하느냐가 그 출발점임...
사고로 인한 인명피해가 아니더라도 우리는 현실에서 저런 상황을 꽤 많이 겪는 편인데, 대부분 상황에서 다수의 이득을 고르는 편임.
그게 결과도 좋고 실제로 합리적이기도 하고...
그리고 인간의 목숨이라는 전제로 가더라도 많은 상황에서 다수의 생명을 살리는 선택을 하지 소수의 생명은 선택하지 않음...
대부분의 상황에서 그럼...
그럼 도대체 문제가 뭐냐....
인간이 그런 선택을 했을땐 그 선택을 한 인간은 어떤식으로든 책임을 지게 되어있음...
결국 누군가는 희생시킨거니까...직접 죄를 묻지 않더라도 가슴속에 평생 짊어져야할 죄같은 것이 있음.
사람을 해한다는건 정말 쉽지 않은 결정이니....자신으로 인해 누군가의 목숨이 사라졌다는건 정말 고통스러운 일임...
근데 AI도 과연 그럴까?
AI가 선택을 했을때 누군가는 책임지는가?
이게 근본적인 문제가 아닌가 싶음....
단순히 어느쪽을 선택하느냐의 문제를 떠나서....
그 선택을 했을때 그럼 선택한 책임을 누군가는 져야하는데....
운전자가 져야한다면 아무도 자율주행차는 안 살거임. 내가 하지도 않은 선택으로 피해를 보긴 싫을거니까...
그럼 자동차 회사가 져야한다면? 자동차 회사 역시 반발할거임. 그리고 선뜻 자율주행 시스템을 만들긴 어려울거....
이렇게 되면 필연적으로 '자동차 회사도 책임을 안지고, 운전자도 책임을 안지는 자율주행차'가 등장할 확률이 높음.
왜냐면 둘다 책임은 지기 싫어하지만 자율주행차를 원하는 마음은 같기 때문...
그래서....
저 트롤리 딜레마 문제는 단순히 사람이 죽으면 안돼, 또는 어느쪽이 더 나은 선택이야라는 문제를 떠나서...
아무도 책임을 안 질 상황에서 어떻게 아무도 안 죽이고 기차길을 통과할 것이냐라는 고민을 해야한다고 봄...
누군가를 죽여야하는걸 전제로 깔면 자율주행차는 절대 나오지 말아야함....