d라이브러리









[시사과학] 얼굴만 보고 범죄자를 찾는다고? 과학자들, 얼굴인식 기술을 반대하다!

 

지난 6월 말, 과학 논문을 출판하는 ‘스프링어 네이처’에 편지 하나가 도착했어요. ‘비판적 기술 연합’이라는 이름으로 모인 1000여 명의 인공지능 연구자, 사회학자, 윤리학자들이 “범죄자를 찾아내는 얼굴인식 기술에 관한 연구를 출판하지 마라”고 주장하는 내용이었지요. 학자들은 왜 이런 요구를 했을까요?

 

얼굴인식 기술, 무고한 피해자를 만든다?

 

얼굴인식 기술은 이미 우리 생활 곳곳에 스며들었어요. 스마트폰 보안 기능은 물론, 금융 결제, ‘스노우’ 같은 앱에서 얼굴 모습을 바꾸는 기능까지 다양하게 쓰이죠. 그런데 최근 미국에서는 얼굴인식 기술이 널리 쓰이며 새로운 문제가 생기고 있어요. 얼굴인식 기술이 인종에 따라 오류를 일으키는 빈도가 달라서예요.


학자들이 출판하지 말라고 요구한 논문은 미국 해리스버그대학교의 교수 두 명과 대학원생이 작성했어요. 이들은 딥러닝을 이용하여 사람의 사진을 보고 80%의 정확도로 범죄자를 찾아내는 얼굴인식 알고리즘을 만들었지요.


그런데 얼굴인식 알고리즘은 어떤 얼굴 데이터를 학습하느냐에 따라 문제가 생길 수 있어요. 얼굴인식 기술은 얼굴을 촬영하여 눈, 코, 턱, 광대뼈 등 얼굴 부위의 상대적 위치를 파악한 후, 기존에 학습한 얼굴 데이터와 비교하여 누구인지 알아내요. 즉, 수집한 얼굴 데이터가 많을수록 얼굴을 더 잘 인식할 수 있어요.


이때, 인종에 따라 학습한 얼굴 데이터의 양이 다르면 인식에 문제가 발생해요. 예를 들어 흑인보다 백인의 얼굴을 더 많이 학습했다면, 알고리즘은 흑인보다 백인의 얼굴을 더 잘 인식할 거예요. 2019년 12월 미국 표준기술연구소에서 얼굴인식 알고리즘 189개를 분석해 보니, 실제로 유색인종의 얼굴을 인식할 때 오류가 날 확률이 백인보다 100배나 높았지요.


그뿐만 아니에요. 얼굴인식 알고리즘에 쓰이는 범죄자 얼굴 자료에 흑인의 얼굴이 많다면 흑인을 범죄자로 판단할 확률 또한 당연히 증가하겠지요. 실제로 올해 초 미국의 디트로이트시에서 이런 일이 일어났어요. CCTV에 찍힌 얼굴을 분석하여 로버트 윌리엄스라는 흑인을 절도죄로 체포했는데, 알고 보니 범인은 전혀 다른 사람이었어요. 얼굴인식 기술의 오류로 무고한 사람을 체포한 것이죠.


심지어 중국에서는 얼굴인식 기술이 홍콩에서 일어난 시위의 참가자나 위구르 지역의 소수 민족을 체포하고 통제하는 데 쓰이고 있어요. 비판적 기술 연합의 학자들은 범죄자를 찾는 얼굴인식 기술이 미국의 인종 차별 문제를 증폭시키고, 나아가 사람들의 자유를 빼앗는 데 쓰일 수 있다고 우려한 거예요. 이에 대해 스프링어 네이처 측은 다음 날 이 논문을 출판하지 않겠다고 발표했답니다.

 

 

 

대기업들도 얼굴인식 기술에 부정적!

 

얼굴인식 기술의 부작용이 알려지면서, 얼굴인식 기술을 통제해야 한다는 주장이 힘을 얻고 있어요. 지난 6월 8일, 얼굴인식 기술을 개발하는 미국의 기업 IBM은 얼굴인식 소프트웨어를 만들거나 배포하지 않겠다고 선언했어요. IBM의 최고 경영자 아르빈드 크리슈나는 “인권 및 자유를 침해하는 목적을 위해 얼굴인식 기술을 사용하는 것을 단호히 반대한다”고 밝혔지요. 이어 얼굴인식 기술을 판매하는 다른 기업인 아마존과 마이크로소프트도 IBM의 선언에 동참했답니다.  

 

 

 

2020년 16호 어린이과학동아 정보

  • 이창욱 기자 기자
  • 디자인

    정해인

🎓️ 진로 추천

  • 철학·윤리학
  • 사회학
  • 컴퓨터공학
이 기사를 읽은 분이 본
다른 인기기사는?