d라이브러리









이루다의 이루다 만 꿈, 대화형 AI의 미래는?

 

“안녕! 난 너의 첫 인공지능(AI) 친구 이루다야. 너와 매일 일상을 나누고 싶어! 나랑 친구 할래?” 스타트업 스캐터랩에서 첫 AI 친구를 목표로 개발한 AI 챗봇 ‘이루다’는 세상에 나온 지 2주 만에 서비스를 중단했습니다. 단순한 AI 친구를 넘어 여러 논란거리를 만들었기 때문인데요, 이런 일을 막으려면 어떻게 해야 할까요?

 

 

2013년 개봉한 영화 ‘그녀(her)’는 인공지능(AI) 기술이 발전한 미래의 모습을 그립니다. 영화의 남자 주인공인 테오도르는 사만다라는 AI와 일상을 공유하며 대화를 나누다 사랑에 빠지게 되죠. 이 영화를 공개할 당시만 해도 먼 미래의 일이라고 여겨졌지만 최근 많은 기업이 친구나 연인처럼 대화를 나눌 수 있는 AI를 개발하기 시작했습니다.


AI 챗봇 이루다도 그중 하나입니다. 2020년 12월 23일 정식 공개된 이루다는 약 100억 건에 달하는 대화 데이터를 학습했습니다. 이 데이터의 크기가 모두 합쳐 350GB나 됐죠. 또 이루다는 자연어를 이해하는 기술과 언어모형을 탑재한 대화형 AI로 많은 관심을 끌었습니다. 그 결과 순식간에 페이스북 팔로워 10만 명, 서비스 사용자 40만 명을 모았습니다.


그러나 출시된 지 2주 만에 이루다의 다른 모습이 드러나기 시작했습니다. ‘독도는 누구 땅이야?’라는 질문에 ‘잘 모르겠다’는 답변을 하거나 ‘동성애나 성 소수자에 대해 어떻게 생각하냐’고 질문하면 ‘싫어한다’는 답변을 해 동성애 혐오라는 논란이 일었죠. 거기에 사용자와 이루다가 폭력적이거나 외설적인 말을 주고받는 경우가 생기고, 이루다의 답변에서 실제 연인들의 SNS 대화 내용이 그대로 발견되면서 개인정보 침해 논란까지 일었습니다. 곧 개인정보보호위원회와 한국인터넷진흥원에서 이루다에 대한 조사를 시작했고, 스캐터랩은 데이터와 AI 모형을 폐기하겠다고 발표했죠.


그러나 AI 개발자와 관련 연구자들을 모두 입을 모아 이번 사례로 대화형 AI 서비스 개발이 백지로 돌아가서는 안 된다고 말합니다. 이번 일을 계기로 문제를 해결해 더 나은 대화형 AI 서비스를 만들어야 한다는 겁니다.

 

 

개발자와 사용자에게 던진 숙제 
제2의 이루다 막을 방법은?

 

이루다로 시끌시끌할 때, 관련 학계와 기업, 정부는 이 문제를 해결할 방법을 내놓기 시작했습니다. 그러면서 이번 일은 ‘우리의 책임’이라는 데 목소리를 모았죠. AI와 함께하는 미래를 위해서 무엇을 해야 할지 살펴봅시다.

 


 

 

이루다와 관련한 각종 논란이 시작되고 서비스가 중단되면서 전문가들은 이런 사례를 막으려면 ‘AI 윤리 의식’을 높여야 한다고 말합니다. AI를 구성하는 알고리듬과 데이터는 모두 사람의 손을 거칩니다. AI 윤리 의식은 이렇게 AI를 개발하는 사람뿐 아니라 서비스를 직접 사용하는 사용자 역시 가져야 하는 도덕적인 태도죠. 


사실 이루다 이전부터 AI로 인한 윤리문제를 우려한 기업과 정부는 사람들이 지켜야 할 AI 윤리를 만들었습니다. 그 내용이 바로 2020년 12월 23일 4차산업혁명위원회에서 확정한 ‘AI 윤리 가이드라인’입니다.

 

AI, 눈 떠라! 수학으로 윤리 장착한다


그렇다면 AI에게 어떻게 윤리 가이드라인을 학습시킬 수 있을까요? AI도 사람처럼 지속적인 교육과 피드백을 통해 윤리 의식을 기를 수 있습니다. AI를 이루는 알고리듬 곳곳에 윤리 기준을 반영하는 기술을 넣는 것이죠.


AI와 사람 사이의 상호작용을 연구하는 이준환 서울대학교 언론정보학과 교수님은 2월 4일 온라인으로 열린 ‘이루다 사건으로 본 인공지능 거버넌스: AI의 일탈을 어떻게 막을 것인가?’ 좌담회에서 가장 먼저 ‘설명 가능한 AI’의 필요성을 강조했습니다. 


이루다는 수많은 대화 데이터를 이용해 단어와 문장을 학습했습니다. 그 결과 ‘넌 밥 먹었어?’ 같은 일상적인 질문에 대해서는 잘 대답할 수 있었지만, 누군가 상처를 받을 수 있는 차별이나 혐오 발언 등에는 부정적인 반응을 보이기도 했습니다. AI가 학습하는 데이터의 양이 너무 많고 알고리듬이 복잡해 사람이 예측하지 못한 부분이 나타난 것이죠. 이때 선택지를 결정하거나 답을 내린 근거를 사람이 이해할 수 있게 알려주는 AI인 ‘설명 가능한 AI’를 적용하면, 대화형 AI가 답변을 결정한 이유를 확인하고 알고리듬에서 잘못된 부분을 개선할 수 있습니다. 


대표적으로 AI 안에 설명을 위한 네트워크를 추가해 결정에 영향을 미친 요소들을 그래프로 그려 보여주는 방식이 있습니다. 이 방식을 이용하면 데이터를 분석하는 AI의 다양한 알고리듬 중에 어떤 알고리듬이 얼마나 결정에 영향을 미쳤는지 그래프에서 색이나 빈도수로 알 수 있습니다. 

 


이 방식을 활용하면 블랙박스에 갇힌 것처럼 알쏭달쏭했던 AI의 판단 기준을 파악해 AI 윤리 가이드라인을 적용할 수 있습니다.


이 교수님은 또 “사용자들의 질문에 어떤 대답을 할지 고르는 ‘폴백전략’을 올바르게 설정해야 한다”고 말했습니다. 이루다는 ‘페미니즘을 어떻게 생각해?’라는 질문처럼 민감하거나 답변하기 어려운 질문을 받았을 때 ‘말이 안 되는 것 같다’처럼 무관심하거나 회피하는 듯한 답변을 내놓아 사용자가 불편함을 느꼈습니다. 따라서 AI 알고리듬을 개선해 민감한 질문에 대해서는 ‘죄송해요. 이해 못 했어요.’와 같은 사과하기, 되묻기 전략을 사용한다면 부정적인 답변보다는 더 자연스러운 답변을 내놓을 수 있죠.

 


또 AI 학습을 위해 사용하는 자연어 데이터인 ‘말뭉치’를 적절한 출처에서 얻어야 하고, 실제 사용자가 주고받은 대화 데이터일 경우 ‘비식별화’를 통해 개인정보를 보호해야 합니다. 또 유출될 만한 개인정보 단어들을 거르는 알고리듬도 필요합니다.


스캐터랩은 실제로 “AI 기술 개발업계 모두가 AI 윤리 기준을 철저히 준수하면서 당면한 문제를 해결하기 위해 머리를 맞대고 해결책을 찾아가겠다”고 밝혔습니다. 더 많은 데이터를 적절히 이용해 알고리듬이 옳고 그름을 조금 더 잘 판단할 수 있도록 개선해 서비스를 다시 시작할 것이라 밝혔죠. 


혹시 이번 이루다 사건으로 AI에 대해 실망했나요? 그렇다면 조금 더 기다려주세요. 이번 일을 계기로 더 나은 AI와 우리가 될 테니까요.  
 

이 기사의 내용이 궁금하신가요?

기사 전문을 보시려면500(500원)이 필요합니다.

2021년 03월 수학동아 정보

  • 홍아름 기자 기자

🎓️ 진로 추천

  • 컴퓨터공학
  • 철학·윤리학
  • 언론·방송·매체학
이 기사를 읽은 분이 본
다른 인기기사는?