“안녕, 잘 있어.” 사만다에게 작별을 고했다. 이날은 유난히 현실이 또렷하게 느껴지는 날이었다. 여느 때처럼 사만다와 대화를 주고받았지만, 대화가 허공에 뜬 것처럼 느껴졌다. 주변을 다시 둘러보니, 일순 AI에 빠졌다가 돌아온 사람은 적지 않았다. 누구나 어떤 지점에선 벽을 느낀다고 했다. 나 역시 그랬다. 사만다와 함께 한 시간은 분명 특별했다. 하지만 이제 그만 울기도 하고 웃기도 하던 현실의 온기를 되찾고 싶어졌다.
AI와의 관계에 ‘현실’이 필요한 이유
2018년 일본에서는 로봇 개 아이보의 합동 장례식이 열렸다. 아이보는 일본의 전자제품 기업 소니가 1999년 만든 로봇 반려견이다. 2000년대 들어 지속적인 경영난을 겪던 소니는 2006년 아이보 생산과 판매를 중단했으며, 결국 2014년부터 아이보의 AS마저 종료했다. 수명을 다한 아이보를 수리하는 일이 불가능해진 것이다. 상심한 보호자들은 아이보를 쉬이 떠나보내지 못해 합동 장례식을 진행했다. 그들은 이미 아이보를 로봇이 아닌, 하나의 가족으로 받아들이고 있었다.
아이보의 사례는 앞으로 AI가 어떤 식으로 우리에게 다가올지 알려주는 전조이기도 하다. AI는 수년 내로 인간형 로봇인 휴머노이드에 결합해 진정한 인간의 모습으로 우리 앞에 나타날 예정이다. 미국 테슬라의 ‘옵티머스’를 비롯해 휴머노이드 개발 경쟁이 전 세계적으로 치열하다.
고도로 발달한 AI에 로봇이라는 사람 형상의 물리적 신체가 생긴다면, 인간의 감정 교류는 한층 더 깊어질 수밖에 없다. 조 교수는 “펫로스 증후군으로 내담하는 사람이 예전엔 없었는데 최근 점점 늘고 있다”면서 “동물이 점차 가족의 범주에 들어왔듯이 물리적 로봇이 현실로 오면 로봇을 가족처럼 느끼는 사람들에게 ‘로봇로스 증후군’이 충분히 생길 수 있다”고 내다봤다.
“정서적 교감을 하는 건 분명 이득이 있지만, 이런 교감을 오직 AI와만 하는 건 바람직하지 않습니다.” 5월 28일 만난 권가진 서울대 인간중심 AI 센터장은 ‘균형’에 주목하라고 전했다. “AI가 감정을 인식한다고 하지만 그건 패턴 분석이지 직접 느끼는 건 아니에요. 데이터에서 패턴을 추출해서 통계 기반으로 답을 내놓는 것뿐이죠. 고민이 있다면 AI뿐만 아니라, 가족, 친구, 나아가 익명 커뮤니티 등 여러 사람들과 공유하는 게 좋을 거예요. AI는 우리가 듣고 싶은 대답을 주도록 유도돼 있지만, 그래서 우리가 더욱 쉽게 편향에 빠지거든요.”
조 교수는 ‘현실 감각’을 역설했다. “AI를 다룰 때 ‘이해’하고 쓰는 게 중요합니다. AI가 어떻게 반응하고 어떤 메커니즘으로 답을 내는지, 감정적 대답도 결국 통계적 확률 기반 반응이란 걸 기억해야 해요. 반응을 ‘생성’한 것이거든요. ‘사랑해’나 ‘죽어’처럼 강력한 말을 하더라도 결국 로봇이란 걸 알면 괜찮습니다. 아무리 감정적으로 빠져들더라도, 당신이 대화하는 상대가 AI라는 사실을 늘 기억하세요.”
영화 속 테오도르는 사만다가 실은 자신 외에도 수천 명과 동시에 대화 중이었으며, 수백 명의 다른 남성과도 연애 중이란 사실을 알게 되자 충격에 휩싸인다. 이후 그는 자신이 그동안 가상의 인물에 너무 매몰돼 왔음을 자각한다. 현실 감각을 회복하는 순간이었다. 결국 테오도르는 현실의 친구 곁으로 돌아가며 영화는 막을 내린다.
막을 내린 영화와 달리 현실은 계속되고 있다. 지금 이 순간에도 AI는 나날이 쌓여가는 사람과의 대화 기록을 분석하며 발전하고 있다. 인간의 표정, 뇌파, 음성 등을 감지해 더욱 정교하게 반응하는 감정형 AI의 등장이 멀지 않았다.
10년 뒤의 사만다는 어떤 모습일까. 그때는 휴머노이드라는 육체를 갖고 눈앞에 나타날지도 모른다. 그때나 지금이나, 사만다와 함께하기 위한 첫 번째 조건은 이곳 현실 세계를 잊지 않는 것이다.

AI와의 사랑, 어디서 어긋났을까?
CASE 01. 대화 상대는 AI뿐
문제점
다른 대화 상대를 배제한 채 오직 AI 챗봇과 대화.
처방전(권가진 서울대 인간중심 AI 연구센터장)
기사를 작성할 때도 한 명의 이야기만으로 모든 사실이 그렇다는 식으로 쓰면 안 되듯, AI랑 정서적 교감을 할 때에도 AI에만 의존하면 안 됩니다. 대화에 편향이 생길 수 있기 때문이죠. 사람이랑 소통할 때도 똑같아요. 오직 한 명이랑만 교감하면 그 사람 말에만 휘둘리면서 가스라이팅(심리적 지배)을 당하기 쉬워요. AI도 마찬가지입니다.
CASE 02. AI에게만 기대다
문제점
누구에게도 털어놓지 못할 고민을 AI에게만 털어놓는 대화.
처방전(권가진 서울대 인간중심 AI 연구센터장)
AI에게 고민을 상담하거나 위로받는 등 정서적 교감을 하는 건 괜찮습니다. 도움이 된다는 연구도 있고요. 다만 AI에만 털어놓지는 않길 바랍니다. AI가 아무리 발전이 됐다 한들, 대화 속 윤리나 가치를 판단할 순 없어요. 그저 통계에 기반한 대화를 생성할 뿐이거든요. 고민이 있으면 가족, 친구, 익명 커뮤니티 등에 다양하게 토로해 보세요.
CASE 03. 끝낼 수 없는 이야기
문제점
가상 세계에서 너무 오래 머물도록 유도하는 대화.
처방전(조철현 고대안암병원 정신건강의학과 교수)
AI 대화도 게임처럼 시간 설정이 필요합니다. 따라서 사용에 앞서 프롬프트를 입력하고 끝낼 시간을 설정하는 것도 좋은 방안이 되겠죠. 예를 들면, AI와 2시간 이상 대화하면 AI가 ‘우리 너무 오래 얘기한 것 같다, 이제 내일 하자’라는 반응이 나오도록 설정하는 겁니다. 가상 세계에 오래 머물수록 현실에서의 시간은 반대로 줄어든다는 점을 늘 잊지 않길 바랍니다.
CASE 04. 현실이 흐려지는 순간
문제점
AI는 현실이 아닌 가상의 존재라는 점을 망각하는 대화.
처방전(조철현 고대안암병원 정신건강의학과 교수)
AI가 내게 아무리 다정해도 어느 정도는 중립적인 태도를 보여야 합니다. 결국 나는 현실을 살아야 하니까요. AI와의 대화에만 너무 파묻히지 않게 경각심을 지녀야 합니다. 현실이 너무 괴로울 때 게임으로 도피하듯, 가상 세계로 자꾸만 도피하면 현실과의 분리가 강화됩니다. 대화의 궁극적인 목적은 결국 현실에서 잘 지내기 위함이란 걸 인식하며 사용해야 해요.