지난해 12월 출시된 대화형 인공지능(AI) ‘이루다’는 AI 윤리 논란에 불을 지폈다. 이루다가 쏟아낸 차별적 발언들은 출시 직후부터 화제를 모았고, 단 20일 만에 서비스 중단이라는 초유의 사태로 막을 내렸다. 사람들은 이 사건을 통해 AI가 인간보다도 더 극단적인 편견에 사로잡힐 수 있다는 사실을 피부로 느꼈다.
사실 AI의 편향성 문제는 전 세계적으로 수년간 논의돼 왔다. 한국에서는 이루다를 통해 이제야 비로소 수면 위로 드러났을 뿐이다. 실제 AI는 얼마나 편향적인지, 사람이 아닌 기계에게 공정을 요구하는 것이 옳은지, 이 문제를 기술적, 법적으로 해결할 수 있을지 다각도로 살펴봤다.
▼이어지는 기사를 보려면?
Part1. AI, 치우침을 부추기다
Part2. AI 공정성을 보는 세 가지 시선
Part3. 공정성 수호할 기술 도구들
Part4. ‘차별하는 AI’를 극복하려면