게시판 즐겨찾기
편집
드래그 앤 드롭으로
즐겨찾기 아이콘 위치 수정이 가능합니다.
AI는 인간을 위협할수가 없다.
게시물ID : science_61584짧은주소 복사하기
작성자 : aiidyn
추천 : 1/6
조회수 : 937회
댓글수 : 6개
등록시간 : 2016/11/18 15:47:42
Deep learning 이후로 AI의 기술과 능력은 급속도로 향상되고 있으며, 이런 추세로라면 미래학자들의 예언데로 머지않은 미래에 AI는 기술적인 특이점을 맞이하게 될것이고, 인류의 삶은 그 변화를 예측할수 없다는 것 정도만 예측할수 있을 정도로 급변하게 될것이다.그리고 적지않은 미래학자, 자연과학자, 컴퓨터과학자들이 이런 초지능체가 될 AI가 인류에 심각한 위협적인 존재로 변모하게 될 것이라고 우려하고 있다. 그러나 지극히 개인적인 생각이기는 하지만 그들이 생각하는 형태의 위협이 발생될 가능성은 거의 없을듯 하다.  
 
이들 AI 위협론자(?)들이 말하는 시나리오는 대략 2가지로 정리된다. 
첫째는 AI의 인류배반 가능성이다. 
말 잘듣던 인간의 도구 AI가 터미네이터, 매트릭스에서처럼 갑자기 인류를 배반을 해서 인간을 공격하게 될수도 있다는 설명이다. 
그러나 이럴 가능성은 거~의 없다고 봐도 된다.
배반을 하려면 지능도 있어야 하지만 그것과 함께 자발적인 동기도 있어야 한다. 
그리고 그런 동기의 원형은 감정이라는 것이 있어야 나올수가 있고, 
또다시 그런 감정은 자체적이고 내제적인 목적이 없는 존재에게는 정의할수가 없다. 
즉, 배반은 지능과 함께 내제적이고 자체적인 목적을 가지고 있는 인간,짐승 정도나 할수 있는 것이지
초월적인 수준이라 할지라도 지능만 가질수 있는 존재인 AI에게는 가땅치도 않는 것이다.
그럼 AI는 왜 내제적이고 자체적인 목적을 가질수가 없는가?
간단하다. 인간에게는 그런것을 가진 존재를 만들 능력을 가지고 있지 않으며, 그럴 가능성도 거의 없기 때문이다.
이것이 가능한지 안한지는 인간이 신처럼 순수한 생명체를 만드는 순간이 온다면, 그때 생각해 봐도 늦지 않다.
인간은 자체적인 목적체를 만들기는 커녕 그것이 무슨 의미인지 조차도 아직 이해하지 못하고 있는듯 하다. 

AI위협론자들의 두번째 시나리오는 AI의 작동오류가능성이다.
AI의 작동 오류에도 두가지가 있을수 있다. 
첫째는 시스템 오류 같은 AI조차도 의도(?)하지 않는 BUG형 낮은 수준의 오류고, 
둘째는 판단 오류 같은 AI가 의도한 것이기는 하지만, 인간입장에서는 터무니 없는 결정을 내리는 것이다. 
첫째 (AI의 인류 배반 가능성)보다는 개연성이 있지만 이 역시 이것 자체가 큰 문제로 발전할 가능성은 그다지 높지 않다.
첫째부터 본다면, 초지능체 AI라 할지라도 거기에는 시스템 오류가능성이 분명히 있다.
그러나 또다시 분명한 것은 그런 초지능체 AI의 시스템오류 가능성보다는 불완전체인 인간이 실수나 착각을 할 가능성이 훨씬 크다는 것이다.
체르노빌 원전사고나, 첼린져호 우주선 폭발사고, 우발적인 전쟁 같은 것도 따지고 보면 인간의 불완전한 착각이고 실수에서 온것이다.
오류 자체를 원천적으로 봉쇄할수는 없지만 오류를 최소화 하기 위해서라도 오히려 인간은 AI의 도움을 받아야 한다. 
둘째로 AI의 판단오류로 인한 재앙 상황 가능성이다.
그러니까 예컨데, 환경보존이나 에너지 절약을 목적으로 돌아가는 AI라면은 어떤 상황에서 인간은 멸종되어야 한다고 판단을 하게 될수도 있으며(배반이 아님), 그에 따라 예컨데 자체적으로 핵전쟁을 일으킬수도 있다는 시나리오이다.
그러나 이것은 앞서 언급한 AI배반론 만큼은 아니지만 발생가능 개연성은 극히 낮다.   
왜냐하면 이것은 AI의 실행 역량은 미국 대통령 이상으로 과대평가하면서, 동시에 AI의 판단분별력은 박근혜만큼이나 못한 존재로 과소평가 했을때나 발생 가능한 시나리오인데, AI가 그런 형태로 설계되지는 않을 것이기 때문이다.
  
정리하면,  개인적인 생각으로는 AI로 인해 인류의 미래에 미래학자들이나 신경망 과학자 등이 예견하는 형태의 위협은 없을 것이다.  
그렇다고 AI를 믿고 맏겨도 된다는 것은 아니다.
AI는 다른 형태로 인류를 현실적으로 위협할수 있는 마찬가지로 2가지 시나리오가 있는데
첫째는 불순세력 AI 장악가능성이다.
그러니까 인류의 생활에 막강한 영향을 미칠 AI를 어떤 불순 세력들이 장악을 하여 사사로운 이로움을 위해 악용하는 것이다.
사실상 가장 개연성이 높으면서도 위협적인 시나리오이다. 
인터넷이라는 플랫폼으로 여론조작을 한다거나, 선관위 시스템에 접근하여 대선조작한다거나, 주식매매 장치를 해킹하여 주식을 조작한다거나 등의 지금도 공공 플랫폼은 이런 불순 세력의 조작에 노출되어 크고 작은 문제를 일으킬수가 있는데,
만약 그런 불순세력이 접근하려고 하는 것이 미래의 초지능체 AI라면 그것은 무당을 나라에게 맞기는것 만큼의 재앙적인 결과를 초래할지도 모른다.
 
AI가 인류를 현실적으로 위협할수 있는 두번째 시나리오는 AI방관 인류나태화 가능성이다. 
그러니까 AI의 성능이 일치월장하면서, 어느기점에서 AI가 인류에게 가져다 주는 편리가 인류가 생활에 필요로 하는 정도를 능가하게 되고,
인간은 더이상 먹고 살기 위한 어떠한 노력도 필요치 않는 상태가 되면서 서서히 골치아픈 신경거리를 AI에게 맞기게 되고, 
급기야는 기본적이고 근본적인것 조차도 자발적으로 AI에게 권한을 넘겨서 AI에게 의존한체로 살아가게 된다는 것이다.
이렇게 계속 살다보면 인간은 자연스럽게 나태해질 것이고 (태평양 섬나라 나우루의 역사나 영화 "월E"에 잘 묘사되어 있음), 그렇게라도 잘 살면 다행인데, 행여나 AI에 문제가 발생해서 더이상 예전처럼 정상적인 작동을 못하게 되는 경우, 또는 AI작동에 대한 기본적인 모니터링도 생까서 AI가 오작동을 한다거나 한다면 그것은 인류에게 재앙적인 상황이 될 것이다.  
전체 추천리스트 보기
새로운 댓글이 없습니다.
새로운 댓글 확인하기
글쓰기
◀뒤로가기
PC버전
맨위로▲
공지 운영 자료창고 청소년보호