게시판 즐겨찾기
편집
드래그 앤 드롭으로
즐겨찾기 아이콘 위치 수정이 가능합니다.
인공지능: 가장 과학적인 것이 가장 정치적인 것이다.(스압)
게시물ID : science_45517짧은주소 복사하기
작성자 : 데임즈
추천 : 12
조회수 : 1969회
댓글수 : 14개
등록시간 : 2015/01/26 00:32:55
<연합뉴스가 소개한 외신꼭지>
지난 12일 영국의 우주물리학자 스티븐 호킹 박사, 스페이스X사의 CEO 엘론 머스크 등 우리 시대를 대표하는 과학자들이
자신들의 연구모임 <삶의 미래연구소> 홈페이지를 통해 ‘인공지능연구가 인류의 해악이 되어서는 안 된다’는 공개서한을 발표했습니다.

인공지능이 지닌 엄청난 잠재력을 생각하면, 그것이 끼칠지 모르는 잠재적 해악을 피하면서
그것이 가져다 줄 혜택들을 어떻게 거두어들어야 할지를 연구하는 것이 중요하다는 의미인데요.
문명이 만들어 낸 모든 것은 인간 지능의 산물이기 때문에 인공지능에 의해 인간 지능이 확대될 때
어떤 일이 일어날지 전혀 알 수 없다고 경고하는 것입니다.

시대를 대표하는 과학자들이 왜 지금 무엇을 인류에게 경고하기 위해 나섰는지,
인공지능 연구는 지금 어디까지 와있는지.
그리고 우리가 할 수 있는 것은?

[노유진의 정치카페 34편 - 노유진의 100분토크 with 카이스트 전기·전자과 교수 김대식 박사] 편을 직접 채록한 글입니다.
일부는 문맥상 내용이 흐트러지지 않는 선에서 각색.

출처: http://swlee94.blog.me/220251868908
-----

Q. 인공지능이란?

A. 단어 정의부터 할 필요가 있습니다. 인공지능을 이야기 할 때 두 가지 인공지능이 있습니다. 첫 번째 인공지능은 사람과 비슷한 수준으로 정보를 받아들이고, 이해하고, 결론을 내릴 수 있는 기계. 이것을 약한 인공지능이라고 부릅니다. 이것은 그냥 도구죠. 약한 인공지능 + 자아, 의도, 독립성이 있는 것을 강한 인공지능이라고 부릅니다.


Q. 기계에 인격이 있다는 이야기인가요?

A. SF의 대부분의 인공지능은 강한 인공지능을 가리킵니다. 즉, ‘비인간 인격체’죠. 대부분의 영화에는 독립성이 있고, 의도가 있는 기계가 인류를 멸망시키려는 의도가 있다고 표현되는데, 나중에 말하겠지만 이것이 현실적이지는 않은 시나리오입니다. 그것이 큰 문제가 아니고, 강한 인공지능은 그것보다 훨씬 더 심한 다른 문제들을 야기시킵니다.

공학자로서 말씀드리자면, 3~4년 전에 "인공지능이 가능할까요?"라는 질문을 받으면, 약한 인공지능이던 강한 인공지능이던 웃어넘기면서 "그것은 영화에서나 가능합니다. 100년, 200년 걸려야 가능합니다."라고 말씀드렸는데, 오늘 여기 나온 이유는 최근 2, 3년 전부터 세상이 좀 변했기 때문입니다. 아직까지 일반인들에게까지는 그 지식이 번지지 않았는데. 어떻게 보면 ‘구텐베르크가 책을 인쇄하기 시작했다.’라는 사실을 일반인들이 알기 까지 몇 십 년이 걸렸습니다. 하지만 분명히 그 포인트에서 시작한 것 같이, 최근 2,3년 동안 인공지능이 60년 70년 동안 풀리지 않던 문제들이 근본적으로 풀리기 시작했어요.

그래서 많은 공학자들이 생각할 때, 적어도 약한 인공지능은 거의 100% 20~30년 안에 올 것이라고 예측하고 있습니다. 그런가하면 강한 인공지능은 아무도 모릅니다. 상당히 많은 철학자들은 ‘본질적으로 불가능하다. 의도나 독립성은 인간만이 가질 수 있다.‘고 이야기하지만 사실 아무도 모릅니다. 완전 개인적인 의견으로 말하자면, 강한 인공지능은 한 50년 정도 후면 가능하지 않을까라는 생각을 가지고 있습니다. 그래서 개인적인 계획으로는 한 49년 정도 살다가 죽을 계획이에요.


Q. 아니, 뇌 과학자·공학자의 목표는 그런 것들을 만드는 것이 아닌가요?

A. 아닙니다. 저는 강한 인공지능은 있어서는 안 된다고 생각합니다. 그 이유는 강한 인공지능이 무엇을 원할지 우리가 예측을 할 수 없기 때문입니다. 핵심은, 이 방송을 녹화하는 스튜디오에서도 그렇고, 주위를 돌아보면 당연하게도 모두 인간이 만든 것들이에요. 생각해보면 인류의 역사는 그동안 만 년, 2만년 전부터 이 지구라는 공동체를 인간 위주로 바꿔왔던 역사죠. 의자가 의자처럼 생긴 것이 우리의 허리와 엉덩이에 맞게 설계된 것처럼요. 다시 돌아와서, 지구를 인간 위주로 바꿔왔는데, 그것이 왜 가능했을까? 당연히 우리가 제일 똑똑했으니까 가능한 일이죠. 우리가 지구에서는 알파 동물인 것입니다.

그리고 우리는 지구에 있는 모든 것을 인간 위주로, 기능 위주로 재해석을 해왔습니다. 공기가 왜 깨끗해야할까? 우리가 마시는 것이니까, 우리가 없다면 공기는 깨끗할 필요 없죠. 공기는 깨끗해야하고, 강산은 아름다워야 하고, 에너지는 파야하고. 그런 식으로 계속 질문을 하다가 어느 한 순간에, ‘그러면 인간은 왜 필요할까?‘까지 가게 되죠. 우리는 당연히 휴머니즘(‘인간다움’을 존중하는 대단히 넓은 범위의 사상적 ·정신적 태도 ·세계관)을 통해서 대답할 수 있습니다. 우리가 알고 있는 모든 헌법의 첫 페이지는 '인간의 존엄은 절대적이다.'라고 시작합니다. 프로타고라스도 “만물의 축은 인간“이라고 그랬고요. 우리는 그러한 답변에 다 동의합니다. 왜냐? 우리가 인간이기 때문에요.

그런데 그것은 19세기 중반 미국 버지니아에서 노예를 가지고 있는 백인 남성들이 저녁에 모여 게임하면서, “어떻게 백인이 흑인보다 우월하지 않느냐”고 얘기하는 것과 똑같은 것입니다. 자신들에게는 100% 공감이 가겠지만, 다른 사람들은 공감하지 않을 수 있는 가설이죠. 이와 같이, “인간은 절대적으로, 이유 없이 필요하다“는 이야기를 우리가 우주인이나 기계한테 한다고 생각하면, 설득력이 하나도 없다는 거죠, 현재로서는. 그렇다면, 강한 인공지능이 생기는 순간, 이론적으로 인간보다 더 뛰어난 지능일텐데. 왜냐? 죽지도 않고, 더 빠르고, 이 세상의 모든 정보를 수집할 수 있을테니까. 이런 녀석이 독립성과 자아까지 갖는다면 분명 인간하고 비슷한 질문을 할 것이고. 모든 사물에 대해 왜 있지?라고 한번씩 물어봤을 때, ”그런데.. 인간 너네들은 왜 있어야 할까?“하고 물어보면 우리가 별로 할 말이 없다는 거죠.

기계가 분명 철학적 정신도 다 입력이 되어있을테니까 공리주의도 알텐데, 그러면 계산해볼 거에요. 지구 Minus 인간이 더 좋을까, 지구 Plus 인간이 더 좋을까? 당연히 후자라고 생각하겠죠. 에너지 다 고갈 시켰지, 수천년동안 전쟁하고, 강간하고, 고문하고. 나쁜 짓들 다 해왔으니까요. 인간이 행복보다 불행을 더 많이 만들었다고 계산이 끝나버리면, 가령 하나의 시나리오 말해보자면, 기계가 “인간이 없는 것이 더 낫겠다”고 판단할 수 있습니다.

그러나 사실 그것보다, 많은 사람들이 걱정하는 것은 훨씬 더 논리적인 문제입니다. 만약 강한 인공지능이 생겼다고 가정해봅시다. 걔가 무엇을 원할지 아무도 모릅니다. 논리적으로 무엇을 원할지 상상을 해보자는 거에요. 인류를 멸망시키겠다? 이것은 약간 치사한 것입니다. 그것은 인간이 상상한 것에 불과하죠. ‘스스로가 전능하고, 모든 것을 다 가졌다고 생각하는 존재는 지구를 정복하고 싶겠구나'라는 인간 입장의 추론은 그냥 망상입니다. 개인적으로 기계가 그럴 필요는 없다고 생각하고요.

그 대신에 기계가 자아가 있고, 독립성이 있다면 적어도, 첫째. 존재하고 싶겠죠. 스스로. 적어도 그것은 우리가 논리적으로 다른 가설 하나도 없이, 그것은 원할 거라고 생각할 수 있죠. 둘째. 인터넷을 통해 당연히 모든 지식을 알고 있을 테니까, 존재하기 위해서는 에너지가 필요하다는 것을 알겠죠? 셋째. 에너지는 물체를 변화시켜서 만드는 것 역시 알아요. 그러면 결국 강한 인공지능에게 에너지는 나무를 태우거나, 석탄을 태우거나, 아니면 사람을 태워서 만들던 도덕적으로 그다지 큰 차이가 없을 거에요. 핵심은 강한 인공지능이 인간을 싫어해서가 아니고, 예컨대, 중요한 회의가 있는데 늦었다. 그러면 막 길거리를 뛰어가지 않습니까? 뛰어가는 동시에 그 상황에서 발에 밟히는 개미들을 싫어해서 밟는 것이 아닌 것처럼, 사실 별 이유가 아닌거죠. 이와 같이 강한 인공지능의 문제는 그것이 생기는 순간 이 문제를 인간이 풀 수 있냐 없냐의 문제가 아니게 됩니다. 왜냐하면 우리가 푸는 문제가 아니라, 우리가 풀리는 문제의 대상이 되기 때문입니다.

때문에 스티븐 호킹이나 엘론 머스크가 걱정하는 인공지능은 강한 인공지능입니다. 무엇을 걱정하고 있는지 이해는 가요. 그런데 조금 있다가 토론 하겠지만, 강한 인공지능이 당장의 문제는 아니라고 생각합니다. 이것은 존재적인, 철학적인 문제고, 영원히 강한 인공지능의 탄생이 불가능할 수도 있습니다. 그것보다 현재에는, 현실적으로 더 중요한 문제인 약한 인공지능을 집중적으로 걱정해야 되지 않을까라는 생각을 가지고 있습니다.


Q. 강한 인공지능의 출현과 예상되는, 통제 불가능한 행동들을 막느냐 못 막느냐의 문제의 싹은 이전의 단계인 약한 인공지능의 단계에서도 올 것이라고 봅니다. 예컨대, 움직이는 물체는 공격하도록 설계해놓는다거나, 특정 피부색을 인식하면 공격한다 식으로. 약한 인공지능의 무제한적 개발을 허용할 것이냐가 현실적인 문제가 될 것 같네요.

A. 그래서 지금 진행되고 있는 많은 토론들이 그러한 생각에 동의하고 있습니다. 사실 저같은 공학자가 인공지능에 대해 이야기하고 다니는 이유는, 강한 인공지능은 사실 영원히 불가능할 수 있지만 약한 인공지능은 가능할 것이라고 가정했을 때, 사회적인 문제가 어마어마하기 때문입니다. 그리고 그 문제들을 하루아침에 풀 수 없을 것이라고 봐요. 10년, 20년 걸릴 것이라고 생각하기 때문에 지금부터 공론장을 형성해서 준비해야한다고 생각합니다.


Q. 이것이 사실 골렘 신화이지 않습니까. 인간이 자기가 만든 것이 자기의 통제를 벗어나서 자기를 공격하는 것에 대한 두려움. 철학적 문제가 있을 것 같아요. 하나는 인간의 의지나 욕망. 이런 것들이 프로그래밍 가능한 것인가? 인간은 탄수화물로 된 몸을 가지고 있고, 다른 개체들과 만나고, 그런 가운데서 의지나 욕망이 갖게 되는 것인데, 과연 하나의 객체로서 컴퓨터 안에서 프로그래밍되는 것이 가능한 것인가? 또 하나는, 약한 인공지능과 강한 인공지능을 나누는 것이 질적으로 나누어지는가? 기준이 없죠. 동물의 진화를 봐도 그렇지 않나요. 계속 진화하다가 어느 순간 인간에 이르러서 자의식이 라던지, 정체성을 갖게 된 것인데.

A. 우연히도, 지난주 미국의 과학자, 인문학자, 정치인들이 모여서 아주 거대한 질문들을 다루는, 매년마나 질문을 하나 던지면 수많은 지식인들이 인터넷으로 답안을 올리는 포럼이 있는데, 2015년 질문이 “인공지능은 가능한가?”였습니다. 그 답변들 중에 “인공지능은 가능하다. 왜냐하면 인간도 강한 인공지능이기 때문이다. 자아와 독립성이 하늘에서 떨어진 것이 아니다. 이것 자체도 신경 세포와, 분자들과, 단백질들이 합쳐져서 만들어진 것이기 때문에 이러한 조건만 만들어지면, 약한 인공지능이 만들어지면 자연스럽게 강한 인공지능으로 진화할 수 있다”는 주장이 있었습니다.


Q. 인공지능이라는 것이 1950년대 사이버네틱스(인공두뇌공학)에서 시작되어서, 최근에 다시 활기를 띈 것이 이것이 뇌 과학과 연결되면서 다른 모델이 등장해서지 않습니까? 그래서 그, 뉴럴 컴퓨테이션이라고 있죠. 사실 지금의 컴퓨터는 YES, NO로 가고 다시 피드백 돌리고 하는 선형적인 알고리즘으로 작동하잖아요. 사실 우리 두뇌의 작용은 네트워크로 작용하는데 말이죠. 그래서 인간 뉴런을 100만개 정도 연결시킨 정도의 컴퓨터가 있다는 얘기가 있더라고요. 그것과 연관성은 없나요?

A. 인공지능의 역사는 어마어마한 기대와 실망의 반복이었다고 이해하시면 됩니다. 역사적으로 말하자면, 1950년도, 컴퓨터 자체가 2차 대전 때 전쟁에서 이겨야하니까 폰 노이만, 엘런 튜링, 로버트 위너 등 정말 최고의 천재들이 만들어낸거죠. 당시 컴퓨터들이 필요로 했던 문제는 크게 두 가지가 있었습니다. 하나는 대포를 쏠 때 그 곡선을 계산해내는 것. 또 하나는 맨해튼 프로젝트, 즉 핵무기 시뮬레이션을 해야 했기 때문에 컴퓨터를 만든거죠. 이 문제들을 다 처리하고, 전쟁은 끝이 났어요. 그런데 그 후 하드웨어가 엄청나게 남아버렸고, 정부에서는 우선 대학교에 무료로 나누어줬죠. 그 덕에 대학교는 최첨단의, 있었는지도 모르는 장비들을 보유하게 되었구요. 그런데 이것을 보고 당시 학자들이 컴퓨터의 계산속도, 수학 능력을 보고 “아, 그러면, 컴퓨터가 인간이 잘하는 다른 것도 더 잘할 수 있겠구나”라고 생각해서 인공지능에 대한 연구가 시작되었습니다. 그래서 인공지능이라는 단어가 1950년대에 생겼고, 인공지능이라는 것은 "인간이 지적으로 할 수 있는 것은 다 해야 한다”고 정의내렸었죠.

그렇게 연구가 시작되는데, 인간이 하는, 보고 듣고 말하고 하는 것들을 다 한꺼번에 개발할 수는 없었죠. 수학자들이 항상 이런식으로 생각합니다. “우선 제일 어려운 것을 한번 풀어보면 나머지는 누워서 떡먹기로 풀린다." 그러면, "인간이 가장 어려워하는 것은 무엇일까?" 이분들은 다 수학자들이었으니까, 수학하고 체스가 제일 어렵다고 생각했었습니다. 그런데 이 문제가 6개월만에 다 풀렸어요. 수학도 미분 방정식 다 풀어내고, 체스도 생각 이상으로 잘하고. 그래서 이분들이 생각한 것이 "야, 이러면 음성인식 정도는 학부생이 두 달이면 풀 수 있겠다." 이렇게 생각했는데 두 달은 무슨, 음성인식은 아직까지도 못 풀어요. 애플 Siri, 걔 아직까지도 음성인식못해요 사실은. 여전히 컴퓨터는 강아지와 고양이를 구별할 수 없습니다.

왜 그랬을까. 지금가서 보니까, 우리가 쉽다와 어렵다를 혼동한거에요. 우리가 쉽다고 생각한 문제들, 물체를 보는 것, 강아지와 고양이를 구별하는 것, 누구나 다 하는 것이 알고리즘 적으로는 어마어마하게 어려운 문제인데, 인간은 이 문제를 진화과정에서 다 푼 거에요. 그러다보니 우리 머리 안에는 답이 이미 들어 있어요. 하드웨어의 Embeded Solution으로. 하드웨어 자체가 솔루션인 것이죠. 그에 반해 진화과정에서 한번도 미적분을 풀 필요가 없었던 거에요. 그래서 우리는 미적분과 수학을 하면 시뮬레이션을 돌려서 풀어야 하니까 어려워요. 버벅대고. 그러니까 진짜 어려운 문제를 쉽다고 생각하고, 쉬운 문제를 어렵다고 생각하고 착각했던 거에요. 그것을 한 10년전에 이해를 했어요. 아, 프레임이 완전히 거꾸로 됐구나.

두 번째 이해한 것이, 아까 말씀드렸다시피 1950년도부터 거의 몇 년 전까지 시도했었던 것이 뭐냐면, 지능을 언어로 설명하려고 시도했었어요. 여기서 언어라는 것은 사람의 말이 될 수 있고, 수학이 될 수 있고. 기호학적 관점에서 Symbol로 표현할 수 있다고 믿었던 거죠. 그래서 개는 뭐고, 강아지는 뭐고. 실험실에서는 잘 됬는데 밖으로 나가면 안되요, 하나도. 나중에 알고 보니까, 현실에서 일어나는 일들의 확률분포가 너무나도 다양하기 때문에 표현이 안됬던 거에요. 실험실에서는 현실을 단순화시킨 문제들이여서 풀리는데 세상에 나가면 예측할 수 없는 투성이죠. 사실 강아지라는 것이 무궁무진한 모습을 가지고 있는 거잖아요. 눕고, 일어서고. 그런데 그게 다 표현이 안 된다는 거죠. 그런데 보니까 인간은 해요. 이 문제는 분명 풀 수 있는 문제인데 왜 기계는 못 풀까.

그래서 한 5~6년 전까지 이건 정말 인간만 풀 수 있는 문제라고 이야기 했었는데, 새로운 시도가 뭐냐면 그게 요새 불리는 뉴럴 컴퓨팅이나 Deep Learning이에요. Deep Learning은 뉴럴 컴퓨팅의 개념 중의 하나인데, 쉽게 말해 아이의 발달 과정을 시뮬레이션 하는 겁니다. 우리도 어렸을 때 생각해보면 부모님이 이건 강아지고 이건 고양이라고 설명한 적이 없어요. 그냥 동화 읽다가 한번 정도 보여줬겠죠. 결국 엄청나게 많은 경험에서 얻는 Big Data를 가지고 학습 알고리즘을 통해서 스스로 학습해서, 스스로 진화하는 것이죠. 그러니까 이게 합리주의적 모델이 아니라 경험주의적 모델인 거에요. 그래서 Deep Learning은, 엄청나게 많은 Big Data를 때려 넣어서 컴퓨터가 학습을 하게 만드는 시스템이구요. 이게 이론적으로는 4~5년 전부터 존재했었는데 1~2년 전부터 이게 가능하기 시작한 게 3가지가 합쳐져서 그렇게 된 것이라고 생각해요.

첫 번째는 수학적으로 근본적인 문제가 한 두 개 풀렸구요, 두 번째는 Big Data라는게 존재하잖아요. 구글, 페이스북. 세 번째로는 병렬 컴퓨터들이 아주 저렴해졌어요. 그러다보니까, Deep Learning이나 인공지능을 제일 잘하는 회사들이 구글하고 페이스북입니다. 데이터를 가지고 있는 사람이 갑이에요 요새는. 알고리즘도 중요하지 않고, 컴퓨터도 중요하지 않아요. 이것들은 시장에서 돈 주면 살 수 있는 것들이기 때문에. 페이스북 하셔서 아시겠지만 맨날 사람 얼굴 나오면 이름 적어놓으라고 그러잖아요? 결국, 우리가 페이스북에서 이름을 적어놓는 순간 페이스북에서 사용하는 Deep Learning을 위해서 인간이 학습지 역할을 해주고 있는 겁니다. Training Data를 주고 점점 컴퓨터가 진화가 되도록.

이런 식으로 해서 작년부터 컴퓨터의 퍼포먼스가 너무너무 좋아져서 물체인식, 거의 사람 수준으로 하고 있구요. 얼굴 인식은 한 97%정도로 하구요. 이것은 과거에는 전혀 상상도 못했던 레벨입니다. 엄청난게 있는게, 예를 들어 구글 같은 데서는 얼굴인식 시스템들이 나오구요. 마이크로소프트에서는 음성인식, 아마 2015년도 하반기에 소개될 Skype같은 경우는 동시번역, 통역이 가능합니다. 영어로 얘기하면 중국어로 바로 나오는. 통역사들 다 실업자 된다고 생각하고 있습니다.

하여튼 이런 문제들이 다 근본적으로 해결되고, 구글에서 이번에 또 새로 소개된 것이 뭐냐하면 사진을 찍어서 올리면 이 시스템이 사진을 이해하다 보니까 그 사진을 설명해줘요. 예를 들어서 친구들하고 생일 파티 중인 사진을 찍어 올린다, 사진만 올리면 그 상황을 이해해서 생일파티 중입니다, 무슨 장면이라고 알려주는 거죠. 결국 얘가 장면을 이해하고 내용을 이해하고 글을 쓸 수 있다 보니까, 경제전문지 Bloomberg같은 경우에는 올해부터 대부분 기업 관련 정보를 기계가 쓴다고 합니다. 초안은 기계가 쓰고, 편집실에서 어색한 부분만 고쳐주는 거죠. AP통신에서는 작년 말부터 하기 시작했구요.

지금 IBM에서 만들고 있는 시스템 중 하나를 보면, 특허를 만약에 내가 작성을 해요. 어떤 특허를 내겠다, 입력을 하면 그 특허하고 비슷한, 이 세상에 있는 3000만개의 특허에서 비슷한 특허 100개 정도를 뽑아요. 거기서 끝나는 게 아니라, 이 특허를 피해갈 수 있도록 새로 작성해줘요. 그럼 변리사들 다 실업자 되는 거에요. 또 하나 다른 시스템은 뭐냐하면, 회사들이 고객 전화를 받고 A/S해주고 그래야 하잖아요. 이게 인건비가 엄청나기 때문에 미국 회사들은 대부분 인도나 필리핀으로 아웃소싱해서 콜센터를 두고 있어요. IBM에서 올해 소개될 시스템이 뭐냐하면, 동시에 거의 몇 백만명하고 영어로 통화가 가능한데, 블라인드 테스트를 해보면 영어 수준이 인도사람보다 훨씬 좋대요. 그러면 이제 콜센터들 다 문 닫는 거에요. 

핵심은 뭐냐하면, 현재 OECD 국가들에서 보면 사람들이 도대체 뭘 해서 먹고 살까 보면, 농업은 5%정도고. 그 다음 생산·제조가 15% 내외. 그다음에 정부, 그다음에 60~70%가 서비스 산업이잖아요. 결국 서비스라는 게 뭐나면 정보를 이해하고 받아들이고 말하고. 무언가 생산하기보다는 들어온 정보를 수집하고 처리해서 그 다음 단계로 넘겨주는 중간역할을 하는건데 이게 60~70%라는 거잖아요. 근데 이 60~70%가 잘 해서 먹고 살수 있는 능력이 바로 약한 인공지능이 20~30년 내에 우리보다 훨씬 잘할 거라는게 문제라는 거죠. 더 저렴할 거고. 약한 인공지능의 핵심은 뭐냐하면 대부분 인간들이 잘하는 것보다 기계가 훨씬 잘하기 때문에 인간이 할 일이 없다는 거에요. 좀더 정확하게 말하자면, 인간이 할 일이 없다는게 아니고. 인간이 할 일 많아요. 여행 다녀도 되고 놀아도 되고 파티 맨날 해도 되고. 문제는 그것을 해서 돈을 벌수 없다는 거잖아요.

그래서 결론적으로 보면, GDP, GNP 다 좋아지고 효율성도 엄청나게 좋아질 거에요. 대한민국같은 경우에도 3만불 시대? 30만불 시대도 올 수 있다고 생각해요. 그런데 혜택은 누가 받을까요 결국은. 평균으로는 30만불이겠지만 중간값을 보면 30만불이 아니라는 얘기죠. 아마 나라의 생산성의 99%를 상위 1%가 가져가지 않을까 생각하고 있습니다. 나라는 안 망해요. 사회는 전체적으로 훨씬 더 잘 살겠지만, 일자리가 있고 혜택을 받는 사람의 숫자가 절대적으로 줄어지지 않을까라는 걱정을 하는 거죠. 서비스업 중에는 미용업과 같이 생산과 동시에 소비되는 인적 서비스업이 있는데, 이런 것들은 당연히 살아남겠죠. 그런데 법무사, 변리사, 대기업의 중간. 미생에 나오는 대부분의 화이트칼라들이 다 컴퓨터한테 자리를 내줘야하는 거죠.

어떻게 보면, 미래 시대가, 작년에 유럽가보니까, 그리스나 스페인에서는 이미 진행되고 있는 것 같아요. 바르셀로나 같은 경우는 청년 실업률이 80%잖아요. 걔네들이 할 일이 없어요. 그런데 당연히 굶어죽지는 않아요. 나라에서 굶어 죽게 안두겠죠. 그리고 얘네들은 부모님들하고 아직 같이 살겠죠. 문제는, 이건 유지될 수 없는 시스템이잖아요. 부모님은 언젠가 돌아가실 거고. 나라에서 일 없는 애들한테 무한정 돈을 주지는 않을 거고. 재정문제는 계속 늘어나는거고. 결국에는 약한 인공지능이 나왔을 때 사회적으로 답을 찾아야 될텐데, 지금 크게 보면 두 가지 시나리오가 있는 것 같아요. 첫 번째 시나리오는 미국 시스템 시나리오 겠죠. 그냥 둬라. 시장이 알아서 좋은 솔루션으로 갈거다. 그런데 문제는 케인즈가 얘기했었던 대로, 장기적으로 보면 다 죽는다는 거잖아요. 천 년 후면 새로운 시스템이 만들어졌을 수도 있겠지만, 그 중간에 엄청나게 많은 불행과 문제를 만들어 내겠죠. 그래서 그건 아닌 것 같고.

두 번째는 유럽 솔루션이 있을텐데 여기서도 역시 인간이 할 일이 없을 텐데, 몇 개 남은 일자리를 나눠가지는 거죠. 나머지는 정부에서 지원해주고. 그것도 유지될 수 있는 시스템은 아니라고 봐요. 인간이 일을 하는 게 돈을 벌기 위해서만 하는 게 아니고, 자신의 존재감도 느끼고. 의미 있는 일을 하기 위해서인데 대부분의 사람들을 의미 없는 일을 하도록 두게 되면 그것도 유지될 수 없다고 봐요. 재정적인 것을 떠나서. 그래서 많은 분들이 생각하는 게 제3의 길을 찾아야 하지 않을까. 그리고 이것은 저같은 공학자들이 풀 수는 없습니다. 저희는 이런 문제가 있을 거고, 언제 어떤 일이 벌어질 것이라는 것까지는 얘기드릴 수 있지만 결국 이건 경제적인 문제, 정치적인 문제, 사회 합의가 필요한 문제거든요.


Q. 그런데 그것이 20~30년 만에 온다구요?

A. 네.


Q. 새로운 기술이 오면, 예전 일자리들은 사라지지만 그 대신에 어딘가에서 새로운 일자리들이 만들어지지 않을까요?

A. 실리콘밸리에 있는 친구들에게 “약한 인공지능이 나와서 엄청나게 많은 일자리가 사라져도 더 많고 더 좋은 일자리들이 나올거야”라고 말하면 제가 물어봐요. “어디서, 뭐?” 그랬더니 잘 모르고 그냥 나올 것 같대요. 제가 얘기하는 것은 뭐냐하면, 예를 들면 제조업 같은 경우가 그렇잖아요. 생산성이 계속 늘고 회사들은 점점 커지는데 사실 일자리는 안 늘고 있거든요. 어쩔 수 없는 거에요. 거꾸로 갈 수도 없는 것이고. 사실 과거에 새로운 일자리로 옮길 수 있었던 것은 생산직에 계셨던 많은 분들이 서비스직으로 옮기신 거고. 그러면 서비스업까지 기계가 들어온다면, 사람은 어디로 갈까. 2013년 옥스퍼드대학교에서 발표한 논문에 보면, 기계가 인간 수준으로 정보를 처리할 수 있으면 노동 시장에서 어떤 일이 벌어질까. 상당히 중요한 결과를 냈는데 보니깐 영국과 미국에 있는 일자리가 사라진다는 게 아니라 직업 자체가, 47%가 사라진다고 합니다. 직업 자체의 절반이요. 아주 위험한 직업은 아까 말씀드렸던 콜센터. 변리사. 사실 거기에 교수도 포함되어있어요. 이런 직업을 아무도 안한다는 건 절대 아니고요. 19세기에는 마차 모시는 분들이 런던에만 몇 만 명이 있었대요. 지금도 마차 모는 사람 몇 명은 있어요. 영국 왕실에서. 하는 사람은 있을 거지만 그걸 직업이라고 얘기할 수는 없는 거잖아요. 그런 식으로, 몇 명만 남는 것을 일자리라고 볼 수 없다라는거죠.

그런가 하면 거꾸로, 안전한 직업은 뭐가 있을까 보면은 신부님이 가장 안전한 것으로 나왔구요. 연구 결과에. 종교, 그 다음에 감성 Worker들. 심리치료사, 예술치료사, 웃음치료사. 그리고 연구하시는 분들. 그런데 그분들도 사실 그렇게 안전하지 않아요. 아주 안전한 직업은 아니라고 나와있어요. 작년에 구글에서 인수한 화사중에 DeepMind라는 회사가 있는데 이 회사는 Deep Learning을 사용해서 뭘 시도하냐면, 코딩을 더 잘하는 코드를 만들어요. 전세계에 나와있는 어마어마하게 많은 수천만 개의 코드들을 다 때려 넣어서 학습을 시키는 거죠. 그러면 이 프로그램이 여기서 룰을 찾는다는 거에요. 우리가 원하는 것은 가장 짧게, 가장 복잡한 문제를 푸는 거잖아요. 코드는 사실 미학이에요. 가장 Elegant한 솔루션을 원하는 건데, 인간은 가장 미학적인 코드라는게 뭔지 몰라요 사실. 인간이 모르기 때문에, 컴퓨터 프로그램을 학습을 시켜서 가장 미학적으로 아름답고 Compact한 코드를 만들어내도록 하는거죠. 이런 것을 보면 연구하는 사람도 안전한 직업이라고 볼 수는 없습니다. 핵심이 뭐냐하면, 가장 안전한 직업은 무언가 사람 중심인, 감성이 필요한, 인간의 본능과 본질하고 아주 연관되어 있는 것들만 가장 안전하다라는 거죠. 

그렇다면, 우리가 교육 관련으로 많은 생각을 해야할 것 같아요. 우리나라 대부분 학생들이 대부분 배우는 게 국, 영, 수잖아요. 이 국영수라는게 어디서 나왔겠어요. 200년 전에 1차 산업혁명할 때, 유럽의 대부분의 사람들이 다 농부였었고, 글을 못 읽었었잖아요. 농부의 자식들을 데려다가 공장에서 일을 시켜야 하니까 적어도 글을 쓰고, 산수를 할 수 있어야 하잖아요. 그게 공교육이라는 것에서 국영수의 시작인거죠. 그것도 엄청난 진전이었지만, 우리는 여전히 국영수를 가르치고 있고, 그것가지고 다 먹고 살고 있는 건데. 20년 30년 후에는 기계가 국영수를 더 잘할거라는 거죠. 그렇다면, 우리 같은 4, 50대는 그냥 천천히 조용히 살다 은퇴하면 된다라고 생각할 수 있겠지만, 제가 항상 걱정하는 것은 초등학생들. 얘네들이 학교에서 배워서 지금 일자리를 찾으라는 게 아니고, 20년 30년 후의 일자리를 찾아야하는데 얘네들이 제일 잘하는 게 대치동 학원에서 배운 국영수면 100% 실업자가 된다는 거죠. 얘네들이 나중에 크면 명문대 가는게 문제가 아니고 기계하고 경쟁해서 살아남아야 할텐데 살아남을 수 있는 도구를 하나도 안 가르쳐주고 있잖아요 지금. 그것을 그때가서 배울 수도 없는 노릇이고.


Q. 그것을 Singularity라고 하잖아요. 기계가 인간의 한계를 넘어서는 시점. 사실 약한 인공지능은 인간 전체를 시뮬레이션 하는게 아니라 인간이 발휘한 특정 기능만 시뮬레이션 하는 거거든요. 예전에 생각해보세요. 예전에 속셈학원에서 속셈 잘하면 천재라고 했지만 요즘 그거하면 미련하다는 소리 듣잖아요. 왜냐하면 그 기능을 계산기가, 컴퓨터가 가져갔단 말이죠. 그랬을 때, 계산하는 과정. 기계가 할 수 있는 일은 더 이상 인간적인 일이 아니라, 대신 그것은 기계한테 넘겨주고 기계를 프로그래밍하기 시작했단 말이죠. 그런데 이제는 프로그래밍도 기계가 한다는 말이죠?

A. 그러니까 결국은, 기계가 인간이 지금 현재 할 수 있는 것을 다 하고. 또 하나 특징은 그거잖아요. 1차 산업혁명 때 만들어진 기계들은 수동적인 기계기 때문에 업그레이드를 혼자서 못하는 기계에요. 더 빠른 기차가 나오려면 사람이 디자인 했었어야 되는 거고, 인간이 공학자가 되고, 디자이너가 되어서 그거 해준거잖아요. 그런데 약한 인공지능이 실현되는 순간 얘네는 학습능력이 있기 때문에 자기 자신을 계속 업그레이드 할 수 있겠죠. 그래서 많은 분들이 걱정하는 것이 인공지능이 인간의 마지막 발명품이라고 얘기들을 하세요. 왜냐? 그 다음 발명은 기계가 다 할 것이니까.

자 그렇다면, 인간은 뭘 할까. 예술적인 것, 창의적인 것, 감성적인 것. 약한 인공지능은 못할 것이라고 생각해요. 사실 인간이 할 수 있는 것은 많은데, 결국은 그것을 해서 먹고 살 수 있느냐가 저는 핵심이라고 생각하고, 이거는 제가 볼 때 과학적인 문제는 아니고 산업 쪽으로, 정치 쪽으로 재분배의 문제라고 생각해요. 왜냐하면 사회 전체가 어마어마하게 지금보다 더 잘살 것이거든요. 사실 우리는 2015년, 노숙자들도 있고 하지만 평균적으로 봤을 때 우리가 누리고 있는 편안함 이런 것은 3000~4000년 전 인간은 상상도 못했던 레벨이죠. 그러면 우리가 미래를 예측하면, 이런 기술을 통해서 상상 조차도 허락되지 않은 상상을 해볼 수 있어요. 정말 누구나 다 개인 비행기 타고 돌아다니고, 평균적으로. 그런데 문제는 그 평균이 그 한 사회의 1%여서는 안 된다는 거죠. 나머지 99%는 길거리 청소하고 있고. 그런 미래는 우리가 바라지 않을 테니까요. 사회 전체의 그 높아지는 생산성을 어떻게 재분배하느냐가 큰 이슈가 될 거라고 봐요.


Q. 그러면 약한 인공지능의 시대가 임박한 현실에서 우리는 뭘 할 수 있죠?

A. 여러 가지를 할 수 있죠. 우선은 교육. 기계가 할 수 없는 일을 가르쳐야 하구요. 두 번째는, 공학적으로는 인공지능에 안전장치를 집어넣어 줘야되겠죠. 예를 들어서 결국은 인간에게 해가 될 수 있는 행동은 할 수 없도록 아주 강하게, 소프트웨어 레벨, 하드웨어 레벨에서는 물론 반도체 레벨에서도 조정해줘야 한다고 생각해요. 예컨대 우리 DNA에, 우리가 법이 있기 때문에도 당연히 도덕적으로 행동하지만 법이 없더라도 근본적으로 인간에게는 DNA, 유전이 정해준 규칙이 있긴 있어요. 기계에게도 그런 것을 심어주자 이거죠.

또 핵확산금지조약, 생명윤리법 같이, 인공지능을 만들 때 인류에게 해악을 가하는 목표로는 만들지 말자는 기계윤리법 조약을 만든다던지. 저도 연구하는 사람으로서, 연구에 사회에서 너무 많은 간섭하는 것을 적절하지도 않고, 어차피 불가능하다고 보지만 정치나 사회에서 합의를 봐줘야하는 것은 “여기까지”라고 그 마지노선은 그어주셔야 될 것 같아요. '핵 연구도 하고 원자력 발전소 지을 수는 있지만, 적어도 핵무기는 안 된다.' 같이. 그런건 과학자들도 다 동의를 해요. 특히 강한 인공지능에서 엘론 머스크나 스티븐 호킹 분들이 걱정하는, 기계가 독립성을 가져서는 안된다고들 말씀들하시고. 그런데 그것을 법으로 어떻게 할 수는 없고, 본질적으로 누구나 그 마지노선을 넘으면 안되겠다고 인정하게 되는 방법들을 우리 사회가 찾아야 된다는 거에요.

그리고 많은 분들이 그러세요. 이미 로봇에 입력된 안전장치가 있지 않느냐? 아시모프에 들어있는 로봇 3대 원칙이나. 그런데 그건 말이 안되는게, 로봇이 독립성이 있으면 “왜?”라고 질문 한 번 해버리면 되요. 어떤 분들은 로봇한테 인간을 신으로 섬기도록 인간 종교를 만드는 것에 대해서도 말씀하시는데, 그렇다면 인간이, 신이 있던 없던 그 존재를 부정하는 것 같이, 우리가 만든 또 하나의 지능이 우리한테 어떻게 해야 할까의 관계 문제가 있죠. 얼마만큼 자율성을 줘야하는지에 대해서 얘기를 할 필요가 있죠.


Q. 두 가지 문제를 지적을 해볼 수 있을 것 같아요. 하나는, 인간과 기계가 동시에 진화하는데, 인간의 진화는 생물학적 한계에 갇혀있고, 반면에 기계의 진화에는 한계가 없어요. 그 틈이 벌어진다는 거죠. 두 번째로는 뭐냐면, 사실 지금도 그렇잖아요. 능력의 한계 때문에 할 수 있다 없다의 문제가 아니라 윤리의 문제 때문에 허가를 받을 수 있느냐 없느냐라는 것인데. 문제는 뭐냐면 윤리적 제한을 둬도, 누군가는 분명히 그것을 깨는 사람이 있어요.

A. 인공지능 제작에 있어 윤리적인 제한을 생각해보기 이전에, 본질적으로 우리가 강한 인공지능의 독립성을 막을 수 있는 방법에 대해서 더 열심히 토론하는게 더 생산적일 것 같아요. 아까 제가 우스갯소리로 말한 거같이 '인간을 신으로 섬겨라', 아니면 어떤 분은 '유교 사상을 기계한테 집어 넣어서 인간을 부모로 모셔라.' 아니면 이런 방법도 있어요. '기계한테 왜곡된 기억을 심어서 기계 자신도 인간이라고 착각하도록 만들어 놓자. 그러면 인류는 멸망시키지 않을 거다.'

그렇지만 제가 볼 때 가장 좋은 방법은, 강한 인공지능은 기계기 때문에, 어찌되었든 논리적인 녀석으로서, 지구 Plus 인간이 더 좋다라는 것을 우리가 설득을 하는 방법이 제일 좋을 것 같고. 이게 우리가 계몽을 할 수 있는 마지막 기회라고 생각해요. 다들 아시겠지만, 칸트의 말을 빌리자면 계몽이라는 것은 인간이 스스로 만들어낸 문제에서 벗어나오는 것이 계몽이라고 하는데, 우리는 여전히 그것을 못하고 있잖아요. 그런데 우리가 이제 슬슬 그것을 좀 하면서. 기계가 우리를 봤을 때, 몇 천년동안 책에서만 맨날 주장하던게 다 구라가 아니고, 우리가 사실은 노력하고 있다. 보여주는 거죠. 기계가 봤을 때는 책에 나오는 인간하고 현실의 인간하고 차이가 너무 많은 거잖아요. 책에는 사랑하라고 나와있는데 맨날 전쟁하고. 기계가 봤을 때는 말이 안 되는 거에요.

오늘 인공지능의 다양한 문제점에 대해서 이야기를 했지만, 모든 기술에, 인공지능은 더구나 어마어마한 가능성이 있다고 생각해요. 잘하면 너무너무 신나고 멋있는 세상을 살 수 있다고 생각해요. 우리가 재분배만 잘하면, 정말 대부분 사람들이 하루 8시간 10시간 일을 안해도 되고. 1~2시간 다들 프리랜서로 일하고. 30만불 100만불 시대가 와서 시골에 있는 사람도 만수르 같이 살고. 단 그렇게 하기 위해서는, 가능성이 분명히 있되, 이걸 잘 컨트롤해야지 사회 전반적으로 도움될 수 있다는 것이죠.

또 하나 철학적으로 제가 인공지능에 관심이 있는건. 자, 사람하고 파리를 비교해봅시다. 책상위에 파리가 있는데, 제가 이 녀석이 징그럽다고 들어서 바닥에 놓았다. 파리가 보는 세상관에서는 갑자기 딱딱하던 면적에서 발바닥 느낌만 달라진 거에요. 왜 그런지는 몰라요. 인과관계를 알 수가 없죠. 걔가 천재 파리라도 인과관계를 이해할 수가 없어요. 진짜 이유는 뭐냐? 사람이, 책상이 존재하고, 사람이 파리를 징그러워해서 밑으로 옮겼다. 그게 진짜 이유에요. 근데 파리는 알 수 없다 이거죠. 그러면 거꾸로, 우주에서 벌어지는 모든 일을 인간이 본질적으로 이해할 수 있을까? 절대로 아니겠죠. 우리 머리 안은 두개골 안에 1.5kg짜리 고깃 덩어리로 그동안 생각을 해놓은 건데, 얘는 사이즈도 한계가 있고, 성능도 분명 한계가 있어요. 그렇다면 우리가 만들어낸 모든 지식과 진실은 당연히 진짜 진실의 그림자뿐이지, 우리는 본질은 못 알아봅니다. 그렇다면, 우리보다 훨씬 더 뛰어나고, 도덕적으로도 진화한 녀석이 있다면, 우주에 있는 어마어마한 진실과 비밀들을 알아내줄 수 있잖아요. 얼마나 좋아요, 우리는 옆에서 그거 들어주기만하면 되니깐. 사실은 니네가 절대로 이해 못해왔던 것들이 다 이유가 있었다. 그런 호기심은 있는 것 같아요. 단, 그 호기심은 있지만, 컨트롤은 잘 해야한다. 


Q. 어느 종교의 경전에 보면 해석을 그렇게 하더라고요. “창조주가 자신을 닮은 모습으로 인간을 창조했다.” 일반적으로 보면, 누가 무엇을 만들면 그 피조물은 창조자를 닮게 되있는 것은 맞는 것 같아요. 강한 인공지능이던 약한 인공지능이던 간에, 결국 그 로봇이 위험을 덜 내포하려면 인간이 창조주인 이상은 어떤 형태로든 닮을 것이니까 우리 자신이 계몽이라고 표현을 하던, 고양시킨다고 표현을 하던, 좀 더 문명화 시킨다고 얘기를 하던 우리 자신의 모습을 개선해야 할 것 같네요.

A. 우리가 생각할 수 있는 답 중에, 우리가 살아남을 수 있는 답 중에 하나는 그거 같아요. 인공지능이 생기는 순간 인간이 해야할 질문하고 기계의 질문하고 다를 것같아요. 인간이 해야 될 질문은, "우리가 왜 있어야 하는지"를 우리가 정당화해야 하는 것 같이 보이고. 기계는 "내 생각이 진짜 내 생각인가. 자신의 의미는 무엇일까." 그래서 우리가 얘기해줄 수 있는 것은, 너의 의미는 우리다. 우리가 너희들을 만들어줬고, 뇌라는게 있어야만이 MP3 플레이어에서 나오는 바하의 아름다운 음악이 음악이지, 우리가 없어지는 순간 공기 진동이다. 그 다음에는 압축되는 공기다. 결국 우주에 아름다움과 의미를 줄 수 있는 것은 인간이기 때문에 계속 있어야만 한다.

그러니 우리가 약간 문제가 있더라도, 좀 봐줘.
전체 추천리스트 보기
새로운 댓글이 없습니다.
새로운 댓글 확인하기
글쓰기
◀뒤로가기
PC버전
맨위로▲
공지 운영 자료창고 청소년보호