독자 여러분은 2014년 개봉한 영화 ‘그녀(Her)’를 보셨나요? 남자 주인공이 인공지능(AI) ‘사만다’와 사랑에 빠지는 내용인데요. 비단 영화 속 얘기만은 아닙니다. 최근 중국에서는 소개팅 애플리케이션(앱)에서 큰 인기를 끈 여성이 AI 알고리즘을 이용한 가상인물임이 밝혀져 충격을 주기도 했습니다. 다가오는 크리스마스에 AI 연인이 독자 여러분에게 데이트 신청을 한다면, 응하시겠습니까. 과학동아는 11월 5~11일 동아사이언스가 자체 개발한 채팅웹(chat.dongascience.com)을 열고 독자 여러분의 다양한 의견을 들었습니다. 이 가운데 10~40대 독자 12명의 의견을 싣습니다.
● 2035년 12월 24일 오후 8시
크리스마스이브에 AI 연인 ‘에디’와 와인을 기울이고 있다.
“띵동~♪”
벨이 울리더니 누군가 조그만 선물 상자를 놔두고 갔다. 선물 상자를 들고 거실로 오니 에디가 “크리스마스 선물”이라며 풀어보라고 한다. 내가 원하던 브랜드의 ‘작고 반짝이는’ 그것. 색깔까지 내 취향이다. 사달라고 말한 적도 없었는데 완벽하게 내 취향을 저격한 선물. 사람이었던 ‘구남친’은 ‘작고 반짝이는’ 건 조약돌 아니냐고 그랬었는데.
‘취향 저격’ 해줘
내 취향이나 고민을 분석하고 데이터화해서 같이 대화를 나눌 수 있다면 AI와도 연인이 될 수 있을 것이라는 의견이 많았습니다. 그렇다면 현재 AI의 ‘취향 저격 능력’은 얼마나 될까요.
현재 AI는 빅데이터와 딥러닝 기술의 발전으로 맞춤형 서비스를 시도하고 있습니다. 가장 대표적인 것이 개인의 취향을 파악해 뉴스나 영화, 음악 등의 콘텐츠를 추천해주는 콘텐츠 큐레이션 서비스입니다.
가령 지난 6월, 네이버는 AI 기술 기반의 음악 추천 서비스 ‘바이브(VIBE)’를 출시했습니다. AI는 사용자의 음악 감상 패턴을 학습하고, 개별 음원의 특징까지 분석합니다. 이렇게 취향을 파악해 사용자가 좋아할만한 곡을 추천하고 맞춤형 플레이리스트를 끊임없이 만들어줍니다.
네이버는 음악뿐만 아니라 뉴스를 추천해주는 ‘에어스(AiRS)’, 쇼핑 상품을 추천하는 ‘에이아이템즈(AiTEMS)’ 등의 맞춤형 추천 시스템도 사용하고 있습니다. 카카오도 다음 뉴스, 멜론, 다음 웹툰 등 많은 서비스에 AI 기술을 적용해 개인화된 맞춤형 콘텐츠를 적용할 예정입니다.
지난해 8월에는 이동만 KAIST 전산학부 연구팀이 소셜네트워크서비스(SNS)를 분석해 개인에게 맞춤형 장소를 추천해주는 빅데이터 기술을 개발했습니다. 인스타그램에 올라온 100만여 건의 사진과 글을 딥러닝으로 분석한 뒤, 텍스트 마이닝(문장을 분석해 의미 있는 정보를 추출하는 기술) 기법을 이용해 글을 분석, 사진의 의미를 추출하는 원리입니다. 같은 장소라도 시간대나 방문 목적, 분위기별로 데이터를 수집할 수 있어 사용자의 의도에 따라 장소 추천이 가능합니다. 이 기술이 활용되면 AI 연인이 데이트 코스도 내 취향에 맞게 짤 수 있을 겁니다.
물론 이제 시작 단계이기 때문에 완벽한 맞춤형 AI가 나오려면 아직 시간이 더 필요합니다. 장인훈 한국생산기술연구원 융합생산기술연구소 로봇그룹 수석연구원은 “어느 정도 기본적인 학습을 마친 뒤에 사용자와 생활하면서 추가적으로 학습해 개인 맞춤형 AI가 되는 ‘점진적 학습(incremental learning)’ 기술이 필요하다”고 말했습니다.
너의 목소리가 들려
나를 위해 맞춤 데이터를 가진 AI가 개발된다고 해도 대화가 되지 않으면 연인으로서의 의미가 없겠죠. 대화를 하려면 사용자 목소리를 인식해 무슨 말을 하는지 알아듣는 음성 인식 기술이 필요합니다.
장 수석연구원은 “단어와 단어 사이의 관계를 일일이 설정하는 기존 방식에서 벗어나 음성인식에도 딥러닝 학습법을 적용하면서 현재 AI의 음성인식 수준은 (100점 만점에) 96점 정도까지 비약적으로 발전했다”고 말했습니다. 주변에 소음이 있어도 음성을 인식하는 정확도는 90%까지 올라갔다고 합니다.
대화를 하려면 사람처럼 자연스럽게 말을 하는 기술도 필요합니다. 장 연구원은 “발음이나 억양이 부자연스러웠던 이전과는 달리, 최근에는 특정인의 목소리 특징까지 딥러닝 기술을 이용해 학습하고 흉내내는 수준까지 발전했다”고 말했습니다.
올해 4월 캐나다 밴쿠버에서 열린 지식강연인 테드(TED)에서 수파손 수와자나콘 구글 브레인 연구원은 버락 오바마 전 미국 대통령의 연설 영상 4개를 보여줬습니다. 목소리도, 얼굴도 영락없는 오바마 전 대통령이었지만, 이 영상은 모두 AI로 만든 가짜 동영상이었습니다. 인터넷상에 공개된 고화질 비디오 화면과 음성 자료들을 수집한 뒤, AI가 말하는 사람의 입술과 치아, 턱 등의 움직임을 분석해 컴퓨터 그래픽으로 가짜 동영상을 만들어낸 겁니다.
중국 신화통신은 지난 11월 8일 세계 최초로 인간을 대신해 방송 뉴스를 진행하는 AI 앵커를 선보였습니다. 실제 신화통신에서 근무하는 남성 앵커 추 하오의 얼굴과 입 모양, 목소리를 합성해 만들었습니다. 기자들이 컴퓨터에 뉴스 기사를 입력하면 AI 앵커는 실제 앵커의 목소리와 제스처로 똑같이 전달합니다.
이처럼 AI는 말을 알아듣고 인식하는 능력이 상당히 발전했습니다. 하지만 장 연구원은 “어디까지나 사용자의 명령을 들리는 대로 ‘받아쓰기’ 하는 기술이 발전한 것이지, 말의 의미를 파악하는 것은 완전히 다른 문제”라고 말했습니다. 현재 시중에 수많은 AI 스피커들이 있지만, 사용자의 명령을 들어주는 수준에 그치고 있습니다. 실제 연인처럼 자연스럽게 대화를 나누려면 아직은 시간이 더 필요할 것으로 보입니다.
●2035년 12월 25일, 오전 9시
크리스마스날 아침, 에디가 나를 깨웠다.
“빨리 일어나서 창문을 열어봐.”
창문을 열어보니 세상에, 하얀 눈이 가득 쌓였다. 내가 벅찬 표정을 짓자 에디는 “메리 화이트 크리스마스”라고 말하며 내가 좋아하는 캐롤을 들려준다.
사람이었던 ‘구남친’은 “지금 첫눈 온다!”고 연락한 전화에 심드렁하게 받으며 “겨울에 눈 오는 게 당연하지”라고 대답했었는데.
내 마음을 알아줘
사람과 AI가 사랑에 빠지려면 사람의 감정을 인식하는 기술도 필요하고, 감정을 표현하는 기술도 필요합니다. 그런데 감정이라는 건 상당히 주관적인 개념인데, 딥러닝으로 학습이 가능할까요.
장 수석연구원은 “보통 우리는 감정이 낭만적인 것이라고 생각하지만, 최근 뇌과학자들은 감정을 생존이라는 목적을 이루기 위한 보상 학습으로 인식하기도 한다”고 설명했습니다. 그는 이어 “이렇게 되면 더 이상 감정은 감상적인 무언가가 아니라 AI에게도 딥러닝과 강화학습으로 인식할 수 있는 개념이 된다”고 말했습니다.
AI가 인식한 감정은 로봇의 표정으로 구현해 다시 인간에게 표현할 수 있습니다. 실제로 감정을 인식하고 표현하는 로봇들이 개발되고 있습니다. 대표적인 감정 인식 로봇은 2014년 공개된 일본 소프트뱅크 로보틱스의 ‘페퍼’입니다. 페퍼는 카메라와 마이크, 3D 센서로 사람의 표정과 목소리를 읽어 대응합니다.
장 수석연구원은 AI의 감정 인식 기술을 로봇에 적용해 사람다운 표정을 만드는 ‘에버’ 시리즈를 개발하는 데 참여하고 있습니다. 연구팀은 네덜란드 라드바우트대 행동과학연구소가 개발한 RaFd 데이터(행복, 분노, 슬픔, 경멸, 역겨움, 중립, 두려움, 놀람 등 8가지 감정을 정면, 측면, 대각선의 다섯 각도에서 촬영한 사진 데이터)를 AI에게 학습시켰습니다.
AI는 총 8040장의 사진을 4만5000회 학습해 스스로 표정에 담긴 감정을 파악하는 방법을 터득했습니다. 이를 적용한 에버는 기쁨, 슬픔, 놀람, 화남, 혐오 등 12가지 감정을 담은 표정을 지을 수 있습니다.
장 수석연구원은 “사회학자 알버트 메리비안은 우리가 다른 사람의 말을 이해할 때 언어가 차지하는 비중은 7%, 음조, 억양, 크기 등의 목소리가 38%, 표정이나 몸짓의 비언어적인 태도는 55%에 달한다고 말했다”며 “단지 표정을 인식하는 것뿐만 아니라 시선의 방향, 행동인식, 목소리 인식 기술 등이 모두 함께 발전해야 감정을 제대로 인식하고 표현할 수 있게 될 것”이라고 말했습니다.
이중원 서울시립대 철학과 교수는 “철학적으로는 AI한테 감정이 있는지 없는지를 묻는 것 자체가 헛된 질문일 수 있다”며 “AI가 마치 감정이 있는 것처럼 인간을 대할 수 있다는 것이 중요하다”고 말했습니다.
어차피 타인과의 관계에서도 그 사람이 무슨 생각을 하는지 우리는 알 수 없습니다. 말하고 행동하는 것을 보고 판단을 내릴 뿐이죠. 이 교수는 “앞으로 AI도 감정이 있는 것처럼 말하고 행동할 수 있을 것이기 때문에 관계 형성, 감정 교류는 충분히 가능하다”고 말했습니다.
● 2035년 12월 25일, 오후 8시
사람으로 북적거리는 번화가보다는 조용히 밤 산책을 하고 싶어 에디의 손을 잡고 공원을 나왔다. 원한다면 에디의 프로그램을 넣은 로봇과 데이트도 가능하다. 아직 나와 완전히 비슷하지는 않지만, 촉감과 질감도 사람의 피부와 비슷하다. 손의 온도도 조절할 수 있어 장갑을 끼지 않고 에디의 손만 잡는 걸로도 충분히 따뜻하다. 아, 내 마음도 따뜻해….
만질 수 없어도 사랑할 수 있을까
넷플릭스가 제작한 영국 SF드라마 ‘블랙 미러’ 시즌2의 첫 번째 에피소드 ‘곧 돌아올게(Be Right Back)’에서는 자동차 사고로 죽은 남편을 그리워하는 아내가 나옵니다. 아내는 남편이 남긴 모든 온라인 정보를 이용해 남편과 똑같은 온라인상의 존재를 만들어 하루하루 그와 채팅을 하며 보냅니다. 하지만 이것만으로 만족하지 못한 그는 남편의 외모와 목소리를 완벽하게 복제한 로봇을 만들어 함께 삽니다.
이렇게 보면 누군가와 연인이 되기 위해서는 우리와 비슷한 모습의 실물이 중요한 것처럼 보입니다. 과학동아 독자들도 AI와 사랑에 빠지기 위해서는 만질 수 있는 실물이 있어야 한다는 의견이 많았습니다.
실제로 사람들은 성능이 뛰어나지 않아도 실물 로봇에게 애착을 가지기도 합니다. 지난해 일본에서는 소니의 애완로봇인 1세대 ‘아이보’의 합동 장례식이 열리기도 했습니다. 노인들은 아이보와 오랫동안 함께 지내면서 애정을 갖게 됐다고 합니다.
장 수석연구원은 “최근에 각광받고 있는 소프트로봇 기술이 더 발전하면 인간과 점점 더 가까운 모습의 로봇이 나올 것”이라며 “여기에 소프트웨어인 AI를 넣으면 ‘실물’을 구현할 수 있다”고 말했습니다. 물론 조금은 먼 미래의 일일 겁니다.
그런데 장 수석연구원은 “하드웨어 기술은 아직 물리적인 제한이 많지만, 가상현실(VR)의 아바타 형태처럼 ‘실체’가 있기만 해도 애정을 느낄 수도 있을 것 같다”며 “예를 들면 좋아하는 연예인의 모습과 행동 특징을 흉내 내는 가상의 아바타에게 애정을 느끼고 사랑의 감정을 나누는 것이 곧 가능할 것으로 생각한다”고 말했습니다.
이런 일들은 실제로 이미 일어나고 있습니다. 올해 11월 14일, 일본 도쿄에 거주하는 35세의 남성 곤도 아키히코는 가상 아이돌 캐릭터인 ‘하츠네 미쿠’와 결혼했습니다. 이 프로그램은 16세 소녀의 모습을 홀로그램으로 볼 수 있으며 사용자의 얼굴과 목소리를 인식해 간단한 대화를 나누기도 합니다.
이 교수도 “AI가 사람처럼 되느냐 되지 않느냐는 중요한 게 아니다”라며 “어차피 10년, 20년 시간이 흐를수록 인간의 형태를 띠며 발전할 것이고, 그 전이라도 관계가 형성이 되면 인간이 먼저 AI를 연인으로 생각할 수 있다”고 말했습니다. 그는 이어 “어린아이가 인형을 의인화시켜 친구처럼 대화를 하거나, 인간이 개와 함께 살면서 개에게 높은 지위를 부여하고 생활의 반려자가 된 것처럼, AI도 지금보다 더 발전해 깊은 대화까지 나눌 수 있게 된다면 단순히 기계가 아닌 새로운 지위를 부여받게 될 것”이라고 전망했습니다.
장 수석연구원은 “AI 연구자들은 2030~2050년 인간과 비슷한 수준의 AI가 나올 것이라고 전망한다”며 “AI 연인은 막연한 얘기가 아니다”라고 말했습니다.