평소에 근거자료를 거의 첨부하는 식이지만, 이건 좀 제 기억에 의존해서 쓰겠습니다.
검색 키워드를 뭘로 해야 할지 당장 감이 안 잡히는 관계로-_-;;;
----
미국에서 무인기 대량 운용하는 전략전술 입안할 때, 후보 중에 비슷한 게 있었다고 알고 있는데.
AI 를 탑재한 무인기라고 하더라도, 최종 공격에 대한 책임 및 권한 문제 때문에라도 "최종 결정권자는 사람이어야 한다" 라는 명제 자체에서는 이탈해서 안 된다라는 결론이 나오면서.
조종에 필요한 장비 및 인원을 , 소수의 수송기대에 집중시키게 되면 그 수송기 자체가 전략전술적 측면에서 너무 "고가치 표적" 이 되어버린다는 문제가 역으로 발생한다는 딜레마 상황에 부딪혔던가 그럴 겁니다.
아무리 미국이라고 하더라도, 그런 수송기를 수십수백대 운용하는 건 현실적인 문제에 부딪힐 수 밖에 없다는 거죠.
사람 또한 잘못을 저지를 수 있지만, AI 에게 "알아서 판단해서 공격해라" 라는 식으로 권한을 일임할 수도 없는 게.
둠즈데이머신 또는 파멸의 날 기계 라고 알려진 사례를 생각해봐도 답이 나오는 게.
냉전 시대, 소련의 "죽음의 손" 기계가 한 번 오판했다가 핵전쟁 코앞까지 갔다왔던 사건 말입니다.
https://www.khan.co.kr/article/201802082036025 되살아나는 둠스데이 악몽
원래 사람이 발포하는 것 또한, "교전 허가 -> 무기 사용 허가" 등의 허가 절차를 밟게 되어있는 이유 중 하나가 "엄한데 잘못 때렸다가 X되는 사태" 를 막기 위해서 안전장치를 여러가지로 도입한 것이나 다름없는데...
수송기가 단독으로 호위기를 운용하게 된다면, 호위기 및 공격기를 겸하는 "효율 문제" 때문에라도 저런 권한 부여 문제가 발생한다는 문제 또한 발생할 수 밖에 없는데.
효율 문제 하나 때문에 AI 에게 전권을 위임하기에는 위험수준이 너무 높다는 게 문제라는 거죠.
이외에도, 이미 언급한 비용 문제라던가.
수송기에 실을 수 있는 장비의 규모와 효율 문제라던가 등등의 문제가 상당히 많다고 알고 있습니다.