d라이브러리









Part 4. 인공지능의 미래를 가늠하다



“알파고는 컴퓨터과학의 대표적인 미해결 문제인 P-NP 문제에서 우회로를 제시했다고 볼 수 있습니다. 기존에는 감히 시도하지 못했던 복잡한 문제에까지 인공지능을 적용하려는 시도가 많아질 거예요.”

한보형 포스텍 컴퓨터공학과 교수가 말했다. P-NP 문제는 1971년 미국의 전산학자 스티븐 쿡이 ‘정리 증명 절차의 복잡성’이라는 논문에서 처음 제기한 문제로, 컴퓨터로 풀 수 없는 문제가 존재한다는 내용이다.

1950년대 영국의 암호학자 앨런 튜링이 지금의 컴퓨터와 비슷한 튜링 기계와 인공지능 개념을 처음 고안했을 때만 해도, 과학자들은 “이제 풀지 못할 문제는 없다”고 생각했다. 수년 안에 인간과 똑같은, 더 나아가 인간을 초월하는 인공지능을 금방 개발할 수 있을 거라고 여겼다. 그러나 10년이 넘도록 별다른 성과가 나오지 않았는데, 그 이유를 쿡이 제시한 것이다. 그의 분석에 따르면, 어떤 복잡한 문제는 최적 값을 찾는 데까지 계산 시간이 기하급수적으로 늘어나 결국 답을 찾지 못한다. 사람들이 생각하기에, 바둑이 그랬다.

‘P-NP’ 문제에 우회로 제시…약한 인공지능 연결해 파급력 ↑

실제로 바둑은 경우의 수가 거의 천문학적이다. 바둑알을 놓을 수 있는 점이 많은데다, 게임 자체도 복잡하다. 그러나 알파고는 정확도를 희생하면서 시간을 단축하는 방법으로 최적 경로를 찾는 데 성공했다. 경기 초반에는 상당한 양의 경우의 수를 아예 배제해 문제의 복잡도를 줄이고, 어느 정도 경기가 진행된 뒤부터는 거의 모든 경우의 수를 계산했다. 한 교수는 “인공지능을 다양한 현실 문제에 적용할 때 이런 방법을 종종 시도한다”며 “인공지능이 적용되는 분야가 폭발적으로 확대될 것”이라고 말했다.

예를 들어 보자. 많은 과학자들이 인간 수준의 지능을 구현하는 건 불가능하다고 여긴다. 2013년 구글이 유튜브에 있는 고양이 얼굴을 구분하는 데만 중앙처리장치(CPU) 1만6000개가 필요했다. 인간 지능을 구현하려면 연산 시간이 상상하기 어려운 수준으로 늘어난다. 이에 비해 컴퓨터 성능은 곧 한계에 도달할 전망이다. 전문가들은 반도체 칩 용량이 2년에 2배씩 향상된다는 ‘무어의 법칙’이 수십 년 안에 끝날 것으로 본다(미국의 미래학자 레이 커즈와일의 ‘특이점’). 그런데 알파고처럼 연산 시간을 줄이는 방향으로 인공지능 연구가 계속된다면, 먼 미래에는 인간 수준의 지능을 구현하는 게 ‘불가능’의 영역에서 ‘시간 문제’로 바뀔 수도 있다는 말이다.
 


 

영화 ‘터미네이터’에서처럼 악한 의도를 가진 ‘스카이넷’이 생길 수도 있다는 걸까. 많은 사람들은 이번 대국을 지켜보며 인공지능 디스토피아가 올지도 모른다는 공포를 느꼈다고 고백했다. 그러나 이성환 고려대 뇌공학과 교수는 “영화의 설정처럼 복잡한 네트워크에서 지능이 갑자기 창발해 인간을 뛰어넘는 초지능이 나올 가능성은 없다”고 선을 그었다. 인공지능은 크게 ‘약한 인공지능(weak AI)’과 ‘강한 인공지능(strong AI)’으로 나뉜다. 약한 인공지능은 인간의 다양한 능력 가운데 일부만 구현할 수 있다. 알파고처럼 바둑만 잘 두거나 IBM의 왓슨처럼 퀴즈만 잘 푼다면 성능이 아무리 뛰어나도 약한 인공지능이다. 반면 강한 인공지능은 영화 ‘그녀’ 속 사만다처럼 인간의 지성과 이성, 감성 등 다양한 능력을 모두 갖춘 인공지능이다. 스카이넷처럼 인간을 훨씬 초월하는 지능이 ‘초지능(super AI)’이다. 당연히 약한 인공지능에서 초지능으로 갈수록 구현하기 더 어렵다.

그러나 이런 분류가 더 이상 의미가 없다는 주장도 있다. 기자는 1년 여 전 인공지능 기사를 위해 장병탁 서울대 컴퓨터공학과 교수를 만났다. 당시 그는 “지능이 창발했다고 주장하는 일부 연구는, 기계가 우연히 내놓은 결과를 인간이 자의적으로 해석한 것에 불과하다”며 “그러나 다른 방법을 통해 인간의 지능처럼 ‘보이는’ 인공지능을 만들 수도 있을 것”이라고 말했다. “전통적인 개념의 초지능은 나오기 어렵지만 인공지능의 발전 흐름은 이미 초지능으로 가는 것처럼 보입니다. 예를 들어, 구글의 자율주행 자동차, 애플의 시리, IBM의 왓슨 등 이미 뛰어난 성과를 낸 약한 인공지능들을 서로 연결하면, 모든 걸 잘하는 인공지능을 만들 수도 있을 겁니다.”



비정형 데이터 처리에 도전하라

물론 몇 년 안에 당장 벌어질 일은 아니다. 해결해야 할 문제가 많다. 대표적인 게 과연 ‘비정형 데이터’를 어떻게 학습시킬 것인가다. 알파고는 바둑판을 카메라로 찍어서 경기 진행 상황을 파악했다. 이미지 인식 기술을 응용했다는 얘기다. 그런데 바둑판의 이미지는 정사각형의 격자를 토대로 흰색과 검은색이 번갈아 놓이는 ‘정형 데이터’다. 대국이 아무리 진행되더라도 알파고는 가로 세로 수 cm에 불과한 정사각형만을 파악해 분석하면 된다. 현재 상태에서 다음 상태로 넘어갈 때 탐색해야 하는 공간이 매번 확정된다는 의미다.

그러나 우리가 인공지능으로 풀고 싶어하는 일상의 많은 문제는 바둑 같지 않다. 사진 한 장을 보더라도 사람마다 다르게 묘사할 수 있다. 인공지능에게 사진을 분석시키려면, 사진의 어느 지점에서 시작할지부터 정해줘야 한다. 이게 바로 비정형 데이터다. 알파고는 비정형 데이터에 대한 경험이 없다.

이게 왜 문제가 될까. 이승민 한국전자통신연구원(ETRI) 책임연구원은 “IBM은 인공지능 왓슨으로 제퍼디 퀴즈쇼에서 인간 챔피언을 이겨 주목을 끈 뒤, 비즈니스 모델을 만들기 위해 다방면으로 고심해 왔다”며 “그 결과물이 인공지능 의사”라고 말했다. 이 연구원은 “아마 구글 딥마인드도 향후 이런 고민을 할 텐데, 의료, 금융, 법률 등 응용 가능한 분야를 찾으려면 반드시 영상, 음성, 문장 같은 비정형 데이터를 처리할 줄 알아야 할 것”이라고 덧붙였다.

실제로 IBM의 왓슨을 활용한 인공지능 의사는 미국의 다양한 병원에서 시범 운영 중이다. 수많은 병원과 연구소에서 수집한 임상결과, 논문, 환자의 병력 등을 분석해 최적의 처방과 치료방법을 의사에게 제안한다. 이 과정에서 반드시 비정형 데이터를 처리해야 한다. 예를 들어 X선이나 컴퓨터단층촬영(CT) 사진을 보고 각종 질병을 진단하려면 비정형 데이터에 속하는, 서로 다른 환자의 사진에서 공통된 패턴을 뽑아내야 한다.



일자리 문제, 윤리적 딜레마…기술 윤리 정립해야

기술적인 문제보다 시급한 건 이 기술을 어떻게 사용할지 공감대를 형성하고 사회적 합의를 이끌어내는 일이다. 가장 현실적으로 다가온 문제는 역시 일자리 문제다. 미국 펜실베니아대사회학자 랜들 콜린스 교수는 “프랑켄슈타인 같은 로봇들이 일으킬 반란이 아니라, 로봇을 소유한 극소수 자본가 계급을 위해 노동이 기술로 대체되는 것이 미래의 진정한 위협”이라고 말했다. 실제로 미국의 경제지 파이낸셜타임스는 지난 13일, 영국의 최대 국영은행인 로열뱅크오브스코틀랜드(RBS)가 ‘로보어드바이저(투자 자문 인공지능)’를 도입하면서 투자 상담 업무를 해 온 550여 명을 해고할 예정이라고 전했다.

인공지능 산업이 널리 퍼지면 물론 새로운 고용이 창출될 것이다. 문제는 늘어나는 일자리가 주로 고등 교육자들에게 돌아간다는 점이다. 알파고를 통해 봤듯이, 인공지능은 이제 단순 반복 업무뿐 아니라 지적 업무까지 대체한다. 기사를 쓰고 작곡을 하거나 그림을 그리는 인공지능도 이미 개발됐다. 제조업뿐만 아니라 서비스업에서도 고직능 근로자에 대한 수요가 증가한다는 뜻이다. 일자리에서 지금보다 훨씬 더 극심한 양극화 현상이 진행될 것이다. 인공지능이 가져올 파장에 대한 사회적 안전망 마련이 시급하다.

인공지능을 어떻게 사용할지에 대한 기술 윤리도 정립해야 한다. 알파고와 이세돌의 대국이 진행되면서 해설가는 여러 번 “알파고가 실수를 한 것 같다”며 고개를 갸우뚱했다. 그러나 결과는 알파고의 승리였다. 실수가 아니라 인간보다 훨씬 더 먼 수까지 내다 본, 계산된 수였을 가능성이 있다는 말이다. 이승민 책임연구원은 “인공지능 알고리즘의 복잡성은 이미 인간이 이해할 수 있는 수준을 넘었다”고 말했다.

여기서 딜레마가 생긴다. 예를 들어, 알파고 같은 성능이 뛰어난 인공지능이 의료시스템에 적용됐다고 가정해보자. 진단이 까다로운 환자의 데이터를 입력했는데, 인간 의사 입장에서는 도저히 이해할 수 없는 진단명과 치료법이 제안됐다면 의사는 어떻게 해야 할까. 인공지능이 오류를 낸 것이라고 봐야 할까, 아니면 인간이 미처 생각지 못한 문제까지 고려한 고도의 계산 결과라고 받아들여야 할까. 이 연구원은 “인간은 절대 알 수 없을 것”이라고 말했다. “오로지 환자가 처한 상황과 그 사회의 도덕성을 종합적으로 고려해 인간 의사가 최종 결정을 내려야겠죠. 비단 의료 분야만이 아닙니다. 인공지능 응용에 대한 공통적인 안전 장치를 마련하는 게 시급합니다. 인공지능이 어떤 분야에 응용되더라도 항상 최종 결정은 인
간이 내리게끔요.”


※ 인공지능을 다룬 과학동아의 최근 기사에서 더 자세한 내용을 읽어보세요.

로봇에게 윤리를 가르칠 수 있을까 (2014년 10월호)
터미네이터는 없다 : 인공지능 유토피아 vs. 디스토피아 (2015년 7월호)

 



▼관련기사를 계속 보시려면?

Intro. 알파고 쇼크, 그 후
Part 1. 알파고가 우리에게 남긴 것들
Part2. ‘알파크래프트’ 어디까지 왔나
Part3. ‘딥러닝’ 넘어야 인공지능 시대 온다
Part 4. 인공지능의 미래를 가늠하다

2016년 04월 과학동아 정보

  • 우아영 기자

🎓️ 진로 추천

  • 컴퓨터공학
  • 법학
  • 철학·윤리학
이 기사를 읽은 분이 본
다른 인기기사는?