여지가 상당히 많다”고 말했습니다. *이루다 논란 2020년 스캐터랩이 공개한 AI 챗봇 ʻ이루다’가 성희롱 및 장애인, 동성애 혐오 발언을 해 문제가 된 ...
편하게 만드는 한편 새로운 윤리적 고민거리를 던져줬다. 지난 1월 대화형 인공지능(AI) ‘이루다’는 혐오표현 및 개인정보 유출 논란 등의 문제로 출시 20일 만에 서비스가 중단됐다. 7월에는 세계 첫 인공수정란이 합성돼 이를 생명으로 봐야 하는지에 대한 논란이 일었다. 마지막은 ...
과정 중에 알게 된 개인의 주소, 계좌번호 등 다양한 정보를 대화로 노출했다. 심지어 이루다가 학습한 데이터 속에 섞여 있던 편향성은 소수자 차별과 성희롱 등으로 표출됐다. 비슷한 사례가 전 세계 다양한 AI 모델에서 나타났다. 이에 일부 연구자들이 의도적 망각을 도입할 필요성을 제기했다. ...
이루다를 성적 쾌락의 도구로 대하고 성희롱했다는 사실이 놀랍지 않은 건 이루다를 디지털 성범죄에 가장 취약한 20대 여성으로 가정했기 때문이겠죠. 안타까운 일입니다. Q 사회는 어떻게 바뀌어야 할까요?사람들은 유독 인공지능의 위험을 ‘개발자도 알 수 없는 예측 불가능한 위험’으로 ...
조금 더 잘 판단할 수 있도록 개선해 서비스를 다시 시작할 것이라 밝혔죠. 혹시 이번 이루다 사건으로 AI에 대해 실망했나요? 그렇다면 조금 더 기다려주세요. 이번 일을 계기로 더 나은 AI와 우리가 될 테니까요 ...
피부로 느꼈다.사실 AI의 편향성 문제는 전 세계적으로 수년간 논의돼 왔다. 한국에서는 이루다를 통해 이제야 비로소 수면 위로 드러났을 뿐이다. 실제 AI는 얼마나 편향적인지, 사람이 아닌 기계에게 공정을 요구하는 것이 옳은지, 이 문제를 기술적, 법적으로 해결할 수 있을지 다각도로 살펴봤다 ...
지금까지 수많은 인공지능(AI)이 개발됐고, 사회, 정치, 경제 등 분야의 제한 없이 활용되고 있다. 허나 AI는 차가울 만큼 치우침 없는 판단을 내릴 것이라는 대중의 생각과 달리, AI가 실제로는 편향된 판단을 내릴 수 있다는 사실이 여러 번 드러나 논란을 겪었다. 대표 사례를 소개한다. 편향을 감 ...
AI ‘테이’의 인종 차별적 발언, 아마존 채용 AI의 성차별적 판단, 국내 대화형 AI ‘이루다’의 소수자 혐오 발언이 그 예다.단, 기술적 의미에서 AI의 편향(bias)은 조금 더 넓은 범위를 포괄한다. 최재식 KAIST AI대학원 교수는 “사회적·윤리적 이슈에 대해서만이 아니라, 사실관계를 예측하는 AI가 ...
기획을 한 이영혜, 박영경, 이영애 기자를 모셨다. 기획의도는?서동준 기자: 인공지능(AI) 이루다 사태로 촉발된 AI의 편향성과 공정성 논쟁을 윤리·기술·법 측면에서 짚고자.이영혜·박영경·이영애 기자: 외계행성 탐사 과학의 최전선을 이론·관측·탐사 측면에서 전하고자.편: 외계행성을 우주 ...