d라이브러리









2023년, 인공지능(AI)은 이미 우리 삶 속에 들어왔다. 화선지 위에 떨어진 먹물이 번지듯 분명하며, 돌이킬 수 없다. 사람들의 반응은 복합적이다. 장상훈 씨(28세울산광역시)는 현재 대학에서 자율주행 자동차를 연구하고 있다. 더 구체적으론 자율주행 자동차가 도입됐을 때 발생할 수 있는 위험요소가 그의 연구주제다. 그는 “사람도 실수로 사고를 일으키듯이, AI도 알 수 없는 오류로 사고를 일으킬 수 있다고 생각한다”며 “사람들이 안전 앞에서 AI가 완전하다고 믿지 않길 바란다”고 말한다.

 

한편 장 씨는 주변에서 인정하는 ‘얼리어답터’다. 새로운 기술이 출시되면 직접 체험하고, 시도해보는 걸 즐긴다. 그런 그의 집엔 함께한 지 4개월 된 ‘동거 AI’가 있다. 아침에 외출 준비를 할 때 음악을 틀어주는 일부터, 자기 전 다음날 일정을 알려주는 일까지. AI 스피커는 충실한 집사처럼 장 씨의 삶을 돕는다. 장 씨는 종종 자기 전에 AI 스피커에게 “오케이 구글, 항상 고마워”라고 인사한다. AI 스피커는 “별 말씀을요”라고 답한다.

 

“원래 물건에 말을 잘 거는 스타일이에요. 근데 AI는 대꾸까지 해주잖아요. 소통하는 것 같아요. 코딩의 결과물이란 건 알죠. 그런데 요즘은 감정이 담긴 말을 이해하는 기능이 생기면서 더 그럴듯한 의사소통이 가능해졌어요.”

 

이찬규 중앙대 인문콘텐츠연구소 HK+ 사업단장은 “현재 AI는 미시적으로는 생활의 편리한 도구이자, 거시적으로는 인간에게 막연한 두려움의 존재라는 양면성을 가지고 있다”고 짚었다. 기대 혹은 두려움. 우리가 AI에 갖고 있는 양면적인 감정을 제대로 파악하려면 인문학의 눈으로 들여다봐야 한다.

 

왜 그 인공지능에게 사랑을 말했나

 

장 씨처럼 AI 스피커에게 감정 담긴 말을 건넨 경험은 의외로 보편적이다. KT는 2019년 한 해 동안 사용자들이 AI 스피커 ‘기가지니’에게 가장 많이 말한 채팅 키워드가 ‘사랑해’였다고 밝혔다. 이어 ‘안녕’ ‘뭐해’가 뒤를 이었다. SK텔레콤이 AI 스피커 ‘누구’와 사용자들의 대화 내용을 분석한 결과도 비슷하다. 2020년 1월부터 11월까지 수집한 데이터에 의하면, 사용자들이 AI에게 가장 많이 건넨 감성 단어는 ‘고마워’였다. 그 중 10~20대는 ‘월요일이 싫어’나 ‘또 혼밥했어’ 등 일상 대화를 건네는 경향도 드러났다.

 

중앙대 인문콘텐츠연구소 HK+ 사업단의 조희련 교수는 AI 스피커와 인간의 관계를 어린왕자와 장미꽃에 빗대 설명했다. 어린왕자에게 장미가 소중한 이유는 장미를 시간 들여 가꿨기 때문이다. 장미도 시간을 들여 자신을 꾸미고 어린왕자를 기다린다. 마찬가지다. 조 교수는 “AI가 애정의 대상이 됐다면, 그건 AI가 오랫동안 사용자를 돕고, 위로했기 때문”이라고 했다.

 

개인화된 AI의 출현은 이런 애착 형성을 더욱 가속화할 것으로 보인다. 개인화란 AI가 사용자의 행동, 선호도, 특성 등을 분석해 개개인에게 적합한 서비스를 제공하는 개념이다. 우리가 좋아할 영상을 추천해주는 유튜브 알고리즘이 그 예다. 현재 관건은 사용자와 나눈 대화를 기억하고, 활용하는 것이다. 예를 들어, 2022년 5월 네이버가 1인 가구를 위해 출시한 ‘클로바 케어콜’의 경우 기존 대화 내용에서 지속적 관리가 필요한 정보를 추출한다. 수집한 정보를 활용해 “그때 말씀하신 병원에는 잘 다녀오셨어요?” 같은 말을 건네도록 만드는 게 목표다. AI가 사용자에 맞춰 길들여지는 것이다.

 

조 교수는 “AI를 포함해 현대사회의 다양한 기술은 개인화를 통해 사용자와 기술이 서로를 길들이는 관계에 놓여있다”며 “이런 점에서 AI가 공포, 또는 애정의 대상이 되느냐는 사람이 AI를 길들이는 시간과 기회를 얻느냐에 달린 것이라 생각한다”고 말했다.

 

‘불법’ ‘사태 벌어지다’가 보여주는 두려움

 

이야기를 더 넓은 단계로 확장해보자. 우리 사회는 AI에 대해 어떻게 생각하고 있을까. ‘인공지능(AI)’이란 단어가 소셜 네트워크에서 어떻게 언급됐는지 분석해봤다. 과학동아가 활용한 빅데이터 분석 플랫폼 ‘썸트렌드’의 긍부정 분석 기능은 인공지능, 또는 AI란 단어가 소셜 네트워크에서 어떤 단어와 함께 언급됐는지 통계를 낸다. 함께 언급된 단어를 긍정, 중립, 부정 단어로 구분해 분석하면 AI가 어떤 맥락에서 언급됐는지 파악할 수 있다.

 

(인스타그램, 블로그, 뉴스, 트위터의 소셜 데이터를 분석했으며, 리트윗된 트윗도 포함했다. 인스타그램에 같은 광고성 게시글 하나가 여러 개 게시돼 언급 횟수가 높았던 ‘삭감하다’란 단어는 분석 정확도를 높이기 위해 제거했다.)

 

2022년 7월 15일부터 2023년 1월 14일까지 6개월간 생성된 소셜 데이터를 분석한 결과, 인공지능(AI)과 가장 많이 언급된 단어는 ‘멀다’였다. 부정 단어로 분류되는 단어다. 주로 “AI 아직 멀었네”처럼 AI의 개발단계에 대한 언급에서 등장했다. 이어 ‘무료’ ‘좋다’ 등 긍정 단어가 뒤를 이었다. 분석기간 동안 AI와 함께 언급된 42만 3712단어 중 긍정 단어는 59%, 부정 단어가 35.5%, 중립 단어가 5.5%였다.

 

월간 긍부정 추이에선 이상한 데이터가 눈에 띄었다. 7월부터 12월까지 AI에 대한 언급은 매월 3만 5279건에서 6만 2887건 사이를 오갔다. 이 중 부정 단어는 14.8~35.5% 사이로 나타났다. 그런데 10월엔 언급횟수가 갑자기 13만 6901회로 평소의 2~4배 뛰었다. 부정단어의 비율은 52.4%였다. ‘불법’ ‘사태 벌어지다’ 등 부정 단어의 언급횟수가 급등하며 생긴 변화였다.

2022년 하반기는 4월 6일 출시된 달리2(DALLE 2), 7월 12일 오픈베타로 출시된 미드저니(Midjourney), 8월 22일 출시된 스테이블 디퓨전(Stable Diffusion) 등이 전세계적으로 화제가 된 시기다. 세 AI 프로그램 모두 텍스트나 이미지 파일을 삽입하면 AI가 알아서 그림을 그려주는 프로그램이다. 프로그램이 널리 퍼지면서 그림 그리는 AI의 부정적 영향을 우려하는 목소리가 터져나왔다. 9월엔 미드저니를 이용해 그린 그림 ‘스페이스 오페라’가 미국 콜로라도 미술 박람회 디지털아트 부문에서 우승을 차지한 일이 밝혀지기도 했다.

이런 흐름을 반영해 10월 썸트렌드 긍부정 분석 데이터에선 AI가 학습한 그림의 저작권이 제대로 지켜지지 않았단 우려가 두드러진다. ‘불법’이란 단어는 “AI그림은 다른 사람의 그림을 불법으로 짜깁기한 가치 없는 그림”과 같은 문장에서 등장했다. ‘사태 벌어지다’란 단어는 “주문자가 (그림 작가에게 의뢰해 그린) 커미션 그림을 AI 그림 프로그램에 돌려봤다가, 해당 프로그램 AI가 그 그림을 학습해 유사 도용하는 사태가 벌어졌다”는 문장 등에서 등장했다.

 

AI가 ‘인간스러워’ 지려면, 인간을 배우는 과정은 필수다. 그런데 이 과정에서 인간에게 피해가 발생할지도 모른다. 김도경 단국대 법학연구소 교수는 2021년 발표한 그의 논문 ‘인공지능 시대에 저작권 보호와 공정한 이용의 재고찰’에서 “인공지능 기술의 운용원리에 따라 오늘날 경제적 우위는 저작권 소유자가 아니라 다른 사람의 데이터를 사용하는 대규모 온라인 플랫폼에 속하는 구조로 변했다”고 짚었다. 이어 “이러한 거대 기술 기업은 머신러닝 기술을 통해 허락 없이 저작권자의 보호된 표현에서 가치를 추출하고, 언젠가는 인간 창작자의 생계를 위태롭게 할 수 있는 상업적 목적으로 그 가치를 사용할 수 있다”고 경고했다.

 

김 교수는 논문을 마치며 “인공지능 시대에 저작권 보호와 이용의 적합한 균형점을 고민하는 작업은 기존에 익숙한 패러다임이 아닌, 저작권법 전반의 지향점과 목표를 근본적으로 다시 고민해보는 과정”이라고 했다. 우리에게 익숙했던 세상과 규칙을 다시 뒤집어 생각해봐야 한다. AI를 받아들이는 게 우리 사회에 두려운 일로 여겨질 수밖에 없는 이유다.

그러므로 조심스럽게, 그럼에도 의지하며

 

신상규 이화여대 이화인문과학원 교수는 AI에 대한 인간의 두려움을 두 가지로 나눠 설명했다. 한 가지는 막연함에서 오는 두려움이다. 신 교수는 “그간 우리는 인간의 지능에 필적하는 대상을 한번도 만나보지 못했다”며 “AI를 대하며 우리 수준의 행동과 판단을 할 수 있는 존재를 처음 접하는 것”이라고 했다. 이어 “그런데 우리는 AI의 지능이 어떻게 구성되는지도 온전히 파악하지 못했다”고 설명했다.

 

AI에는 ‘블랙박스’가 있다. 기계학습을 통해 인간과 유사한 행동을 하도록 만들었으나 구체적으로 어떤 논리회로를 거쳐 이 행동을 했는지는 알 수 없는 부분을 뜻한다. 신 교수는 “우리가 과학의 도움을 받아 자연을 이해할 수 있게 되면서 자연에 대한 공포가 사라졌듯, AI가 어떻게 작동하는지 알게 되면 공포가 줄어들 것”이라고 했다. 블랙박스를 없애 ‘설명 가능’해지는 AI는 현재 활발히 연구되는 분야 중 하나다.

 

두번째 두려움은 더 실질적이다. 이 기술이 우리의 자리를 빼앗고, 우리의 권리를 해칠 거란 공포다. 앞서 소개한 그림 그리는 AI의 사례가 대표적이다. 신 교수는 “AI 자체에 대한 공포보다는 AI가 현실로 들어왔을 때 파생할 수 있는 문제에 대해 더 경각심을 가져야 한다”고 했다.

 

“AI를 경쟁적으로 바라보는 건 좋은 관점이 아닙니다. 기술과의 관계를 통해 우리가 바뀌는 건 자연스러운 변화입니다. 인간은 단 한번도 기술과 독립적인 관계였던 적이 없었으니까요. 우린 앞으로 AI를 삶의 중요한 요소로 받아들이고, 관계를 맺게 될 겁니다. 지금까진 AI 기술을 어떤 방향으로 발전시키고 사용할 것인지 의사결정이 기업의 시장논리에 의해 이뤄졌었죠. 이제는 AI가 바꿔놓을 사회경제적 변화를 예측하고 여기로부터 오는 해악을 막는 논의를 할 시기입니다.”

 

신 교수 뿐 아니다. 기자가 인터뷰한 전문가들은 모두 AI는 어디까지나 ‘도구’라고 입을 모아 강조했다. 인문학자든 과학자든.

 

이 HK+ 사업단장은 “AI는 인간의 기능 일부를 대체할 뿐 총체적 존재 자체를 대체할 수는 없다는 점에 주목해야 한다”며 “AI 기술 발전과 함께 AI를 거울 삼아 인간과 인간 간의 문제에 더욱 많은 관심을 가져야만 한다”고 짚었다.

 

이수영 KAIST 전기 및 전자공학부 교수는 “AI의 능력이 발전하면 인간의 능력은 AI의 능력까지도 포함해 성장하는 것”이라며 “AI는 위험하다. 그렇지만 사람만큼만 위험하다. 사람에게서 배우기 때문이다”라고 했다.

2023년 02월 과학동아 정보

  • 김소연 기자

🎓️ 진로 추천

  • 컴퓨터공학
  • 법학
  • 문화콘텐츠학
이 기사를 읽은 분이 본
다른 인기기사는?