#Scene 1
변호사 A의 사무실
변호사 A 이쪽으로 앉으시죠. 채용 과정에서 부당한 일을 겪었다던데 어떤 일인가요?
대학생 B 네, 변호사님. 다름 아니라 제가 이번에 OO 회사에 입사 지원을 했다가 서류심사에서 탈락하고 말았습니다. 상심하던 중에 OO 회사가 신입사원 채용에 인공지능(AI)을 도입했다는 뉴스를 봤습니다. 알아보니 저도 AI 심사 과정에서 탈락했더군요. 사람도 아닌 기계가 제 운명을 결정했다고 하니 도저히 수긍할 수 없었습니다. 구제받을 길이 있을까요?
변호사 A 그런 일이 있었군요. 자유주의 사회에서 누구와 어떤 내용의 계약을 체결할 것인지는 원칙적으로 개인의(회사의) 자유에 맡겨져 있습니다. 이것을 ‘사적 자치의 원칙’ 또는 ‘계약 자유의 원칙’이라고 말하죠. 고용계약도 계약이고 AI는 회사가 사용한 도구에 불과하니, 회사가 채용을 거절한 것 자체가 잘못됐다고 할 수는 없습니다. 유럽에서는 GDPR에 따라 개인정보 주체가 자동화된 처리에만 의존하는 결정의 적용을 받지 않을 권리(반대권), 진술권 및 이의권, 그리고 인간의 개입을 요구할 권리(개입요구권) 등을 법률로 인정하고 있지만, 한국에는 아직 그런 법률이 없습니다.
대학생 B 하지만 적어도 제가 왜 탈락했는지는 알 수 있어야 하는 것 아닌가요? 회사에 항의해도 AI 알고리즘에 따른 것이라서 자기들도 알 수 없다는 황당한 이야기만 합니다. 그럼 AI 알고리즘이라도 알려달라고 요구했지만 영업비밀이라면서 거절하고 있습니다. 제 생각에는 아무래도 저의 출신 지역이나 성별을 문제 삼은 것 같아요.
변호사 A 사실 요즘의 AI는 인간의 뇌 구조에서 아이디어를 얻은 딥러닝 기술이 대세라서 의사결정 나무와 같은 전통적인 AI 기술과는 달리 AI가 내린 판단이나 결정의 근거를 알기 어렵습니다. 기술개발이 진행 중이지만 아직은 어떤 요소에 가중치가 더 놓여 있는지를 알아볼 수 있는 정도에 불과합니다.
아무튼 AI 기술이 좀 더 신뢰받고 널리 보급되려면 알고리즘이 더 투명하고 설명 가능해야 한다는 것이 일반적인 견해입니다. 유럽에서는 설명요구권이 법적 권리로 인정된다는 견해도 있는데, 반대로 영업비밀을 침해할 우려가 있다는 견해도 만만치 않습니다. 아무튼 우리나라에는 아직 이런 법률이 없습니다. 만약 지역이나 성별만을 이유로 탈락시킨 것이 사실이라면 불법행위를 이유로 손해배상청구를 해 볼 여지도 있겠지만 현재로선 증명하기 쉽지 않을 겁니다.
대학생 B 그럼 저는 구제받을 길이 없는 건가요? 억울합니다.
변호사 A 네, 저도 정말 안타깝네요. 법률은 아니지만 지난해 11월 정부가 발표한 ‘국가 인공지능 윤리기준’에는 알고리즘 투명성과 설명 가능성이 강조돼 있습니다. 강제력은 없지만 윤리도 규범인 만큼 이를 근거로 회사에 채용 거절 근거에 관한 설명을 다시 한번 요청해보는 것은 어떨까요. 올해 1월엔 한국도 유럽과 유사한 제도를 도입하자는 내용의 ‘개인정보 보호법 일부개정법률안’이 입법 예고됐으니 그것도 참고하면 좋을 것 같습니다.
*GDPR(General Data Protection Regulation)
유럽연합(EU) 개인정보보호 규정. 유럽연합의 법으로써
유럽연합에 속해있거나 유럽경제지역에 속해있는 모든 사람들의
사생활 보호와 개인정보를 보호하는 규제.
#Scene 2
C 고등학교 ‘AI 교육’ 수업 시간
교사 D 오늘 수업에서는 AI 윤리 문제를 살펴볼게요. 어떤 이슈들이 있을까요?
학생 E 최근에 어떤 데이팅 애플리케이션(앱) 서비스 중에 AI가 성 소수자에 대한 차별적 표현을 한 사건이 있었어요. 차별 문제가 점점 심각해지는 것 같은데 법적으로 규제해야 하지 않을까요?
교사 D 흥미로운 지적이에요. 그런데 그 사건에서 차별의 문제만 있는 걸까요?
학생 F 전형적인 차별 문제와는 다른 것 같아요. AI를 활용한 채용에서 차별 문제로 탈락했다면 직접적으로 피해를 받았다고 할 수 있지만, 데이팅 앱 사건에서는 어떤 견해가 표현된 것에 불과하니까요. 사실 AI에 의해 자동으로 생성된 것이라 표현의 자유 문제와도 거리가 있는 것 같습니다.
교사 D 그렇습니다. 특정인을 차별했다기보다 편견을 조장할 수 있다는 점이 문제일 겁니다. 하지만 어떤 사람들은 AI가 편견을 조장한다기보다는 사회에 이미 존재하는 편견을 반영해 드러내는 것이므로, 오히려 사회적 편견을 시정하는 데 도움을 줄 수 있다고 주장하기도 합니다. 초보적인 수준이지만 데이터나 알고리즘의 편향성을 감지하고 조정하는 것을 돕는 도구도 개발되고 있고요.
학생 E 선생님 말씀처럼 차별과 편견 조장이 서로 다른 문제인 것 같기는 한데 그럼 법적으로 문제될 건 없는 건가요?
교사 D 사실 윤리를 바라보는 입장은 세 가지가 있습니다. 첫째는 인간의 존엄성과 개인의 자유를 중시하는 입장입니다. 독일 철학자 이마누엘 칸트는 인간을 수단이 아닌 목적으로 대하라고 설파했고, 영국 철학자 존 스튜어트 밀은 다른 사람의 자유를 해하지 않는 한 누구의 자유도 제한될 수 없다고 주장했습니다(자유주의적 관점).
둘째는 영국 철학자 제러미 벤담의 ‘최대 다수의 최대 행복’이라는 표현이 대변하듯이 공리를 윤리의 기초로 삼는 입장입니다. 이런 입장에서는 개인의 자유가 공공의 이익과의 비교를 통해 제한될 수 있습니다(공리주의적 관점).
셋째는 공동체의 미덕을 중시하는 입장입니다. 이에 따르면 이익들 사이의 교량(비교해 헤아림) 과정 없이 공동체의 가치를 근거로 개인의 자유를 제한할 수 있습니다(공동체주의적 관점).
학생 F 예를 들면 자율주행차 제조자가 AI 알고리즘을 설계할 때 교통 법규를 준수하고 보행자를 해치지 않도록 법적으로 강제하는 것은 자유주의적 관점에 따라 설명할 수 있을 것 같습니다.
교사 D 맞습니다. 그리고 자율주행차 사고 시 제조자의 책임을 강조하는 것은 공리주의적 관점에 따라 설명할 수 있죠. 자동차 사고가 발생한 경우 종래에는 운행자가 주로 책임을 부담했지만, 자율주행차 사고의 경우에는 제조자에게 책임을 지우는 것이 더 타당할 수 있습니다. 운행자보다 제조자가 교통사고를 보다 적은 비용으로 회피할 수 있기 때문이죠. 이런 비교는 공리주의적 관점의 특징입니다.
학생 E 생각해보니 데이팅 앱 사건의 경우에는 법적으로 해를 입은 사람이 없으니 자유주의적 관점에 따르면 규제할 수 없겠네요. 하지만 공동체주의적 관점에서는 규제할 수 있지 않나요? 관점에 따라 결론이 달라지는 경우는 어떻게 하죠?
교사 D 그것이 가장 어려운 문제입니다. 미국 철학자 존 롤스의 견해를 소개해볼까 합니다. 그는 자유주의와 사회계약론을 현대적으로 해석해 ‘정의의 원칙’을 제시했습니다. 이에 따르면 기본적 자유가 사회적‧경제적 이득보다 우선이며, 정의가 효율성보다 우선입니다.
그렇다면 데이팅 앱 사건의 경우에는 실제 피해당한 개인이 없는 한 영업의 자유를 제한하기 어려울 겁니다. 하지만 도박이나 마약 사용을 처벌하는 것처럼 공동체적 가치나 후견적 개입(개인에게 스스로 돌볼 수 있는 판단 및 의사결정 능력이 부족한 경우 국가 등이 이를 대신하는 것) 필요성을 이유로 개인의 자유를 제한하는 법도 존재합니다. 다만 입법부에서 이런 법을 만들 때는 소수의 견해를 충분히 듣고 반영해야 합니다. 그렇지 않다면 다수결은 단순히 다수의 전제(다른 사람의 의사 존중없이 일을 결정)로 타락하고 말 것입니다.