d라이브러리









[주요기사][TEST] 뇌가 먼저 아는 투명한 폭력 사이버불링

▲ 라헌, midjourney
 

 

웹상에서 사람과 사람, 사람과 정보를 연결하고 상호작용을 할 수 있는 소셜미디어가 일상화됐다. 그 영향으로 사람들의 ‘관계’는 물론 그 부정적인 면도 달라졌다. 온라인의 익명성 뒤에 숨은 ‘폭력’은 심해지는 중이며, 악성 댓글이나 헛소문부터 조작된 사진과 영상까지 다양하게 확산된다. 피해자들은 얼굴 없는 가해자의 디지털 폭력에 시달리며, 때론 극단적인 선택마저도 한다. 과학기술은 이 보이지 않는 공격을 과연 막을 수 있을까?

 

온라인에서 더 짙어진 그림자, 집단괴롭힘


온라인에서 휴대전화 등 전자기기로 타인을 반복적으로 괴롭히거나 조롱하는 행위가 ‘사이버불링(cyberbullying)’이다. 이 개념은 2000년대 초반부터 학계를 중심으로 논의됐다. 사이버불링의 양상은 최근 유튜브, 인스타그램, 틱톡과 같은 글로벌 플랫폼이 성장하면서 더욱 심화되고 있다. 욕설뿐 아니라 조직적인 괴롭힘, 루머 조작, 딥페이크 영상 유포 등으로 피해자의 삶을 송두리째 흔드는 방식까지 이른 것이다.


최근 각종 조사에서도 사이버불링이 심각한 사회적 문제로 떠오르고 있음이 확인된다. 2023년 조사에선 한국 성인의 9.6%가 사이버폭력을 경험(가해·피해, 둘 다 포함)한 것으로 나타났으며, 청소년은 10명 중 4명이 경험한 것으로 조사됐다. 세계보건기구(WHO)가 2024년 3월 발표한 보고서는 조사에 참여한 전 세계 학령기 아동 6명 중 1명이 사이버불링 피해를 경험했다고 밝혔다.

 

뇌가 고통으로 인식하는 사이버 폭력


스마트폰 화면 속에서 쏟아지는 악성 댓글과 비방은 당사자의 기분을 나쁘게 하는 데서 그치지 않는다. 온라인 폭력이 실제 뇌에 미친 영향에서 그 심각성을 확인할 수 있다. 먼저 사이버불링을 겪는 피해자의 뇌는 마치 전쟁터에 있는 상황처럼 반응한다. 뇌가 지속적으로 ‘경고 신호’를 보내서 두려움과 불안을 조절하는 편도체가 과잉 활성화되기 때문이다. 이 상태가 오래 지속되면 스트레스 호르몬(코르티솔)이 과다 분비되면서 수면 장애, 면역력 저하, 외상 후 스트레스 장애(PTSD)로 이어질 위험성이 커진다.


또한 2023년 미국 메릴랜드대 의대 연구팀은 사이버불링 피해자가 부정적인 경험을 반복적으로 떠올리며 감정 조절 능력이 약화되는 경향이 있음을 밝혀냈다. doi: 10.1016/j.dcn.2023.101247 해당 연구팀은 사이버불링을 경험한 경우에 뇌의 피질 일부, 특히 기억과 감정을 조절하는 핵심인 해마의 부피가 줄어든 것을 확인했다. 이런 사이버불링의 영향 역시 우울증과 불안장애로 이어질 가능성을 높이고, 피해자가 대인 관계에서 점점 위축되는 악순환을 초래할 수도 있다.


도파민 분비가 감소해 삶에서 즐거움을 느끼는 능력을 점차 잃는 것도 사이버불링의 악영향이다. 이에 따라 무력감에 빠지고 사회적 관계에서 멀어질 수 있다. 그러나 역설적인 예외도 있다. 일부 피해자는 소셜미디어에 집착하는 경향을 보인다. 이 집착은 더 많은 악성 댓글과 비방에 노출되는 결과를 낳아 심리적 부담을 가중시킨다. 이런 경우에 소셜미디어는 피해자에게 탈출구가 아니라 덫이 된다. doi: 10.1371/journal.pmen.0000166


뇌 영상 연구는 사이버불링이 피해자에게 어떻게 신경학적 변화를 일으키는지 시각적으로 제시한다. 기능적 자기공명영상(fMRI) 연구에 따르면, 사이버불링 피해자는 사회적 배제나 괴롭힘을 경험할 때, 뇌의 전대상피질(dACC) 활동이 증가하는 경향을 보인다. doi: 10.1002/hbm.24890


이 영역은 신체적 고통을 직접 경험할 때 활성화된다. 즉 온라인에서 받는 악성 댓글과 모욕이 일시적, 감정적인 상처에서 그치지 않고, 피해자의 뇌가 이 사이버불링을 실제 ‘고통’으로 받아들인다는 의미다.

 

▲ 넷플릭스
 
▲ CJ ENM
1 2022년 넷플릭스가 발표한 다큐멘터리 ‘사이버 지옥: n번방을 무너뜨려라’는 한국의 성착취물 제작 및 유포 조직, n번방 사건을 다뤘다. 이 범죄는 익명성을 이용한 사이버불링의 가장 심각한 사례를 단적으로 보여줬다.
2 영화 ‘우아한 거짓말’은 온라인까지 확장된 학교의 왕따 문제부터 학교와 스마트폰을 오가는 집단 괴롭힘 속에서 더 큰 고통을 겪는 피해자의 고립감, 이를 알아채지 못한 피해자 주변의 심리까지 세밀하게 묘사했다.
▲ McLoughlin et al.
사이버불링이 뇌에 미치는 현실적 고통
호주 선샤인코스트대 연구팀이 사이버불링 영상을 본 실험 참가자들의 뇌를 자기공명영상(fMRI) 촬영한 결과, 기억, 감정, 주의력과 관련된 중간 측두회, 전두엽, 시상, 소뇌 등 여러 영역이 활성화되는 것으로 나타났다. 왼쪽은 사이버불링 영상을 보고 활성화된 뇌의 단면들을, 오른쪽은 같은 뇌에서 활성화 부위의 표면을 확대한 것이다. 피해자의 뇌가 사이버불링을 실제 고통으로 인식할 가능성을 시사하는 결과다.

사이버불링을 사용자의 참여로 오판하는 알고리즘


SNS 플랫폼에서 논란을 일으킨 게시물이나 자극적인 뉴스가 빠르게 확산되는 배경엔 이용자인 우리가 볼 수 없는 ‘보이지 않는 손’, 즉 추천 알고리즘이 있다. 대부분의 SNS 알고리즘은 클릭 수, 댓글, 공유, 시청 시간 등의 사용자 참여(Engagement)에 근거해, ‘더 많은 사람이 볼 가치가 있다’고 판단한 콘텐츠를 우선 노출한다.


알고리즘의 설계 목적은 사용자 경험을 개선하고 맞춤형 콘텐츠를 제공하는 것이다. 문제는 사람들, 즉 사용자들의 반응은 평범한 콘텐츠보다 분노, 충격, 두려움을 유발하는 콘텐츠에서 더욱 강하다는 점이다. 악플이 달린 게시물은 관심을 끌며 더 많은 반응을 유도하고 알고리즘이 이런 콘텐츠를 더 널리 확산시킨다. ‘방관자 알고리즘(Bystander Algorithm)’이란 개념은 자극적인 콘텐츠를 추천하고서도 그에 따른 악순환은 방치하는 알고리즘을 지칭한다.


또한 추천 알고리즘이 사용자의 관심사를 분석해서 유사한 콘텐츠만 반복해 보여주면, 정보 여과 현상을 초래한다. 사용자가 자신이 선호하는 성향의 정보만 소비하다 보면, 자신과 반대되는 시각을 접할 기회가 줄어든다. 이에 따라 특정 사용자들 간에 자신과 다른 입장, 관심사에 대한 비난과 악의가 지속될 수 있다.


이와 함께 SNS 내에서는 비슷한 성향을 가진 사람들이 모여 서로의 의견을 강화하는 동조 집단(echo chamber)을 형성하곤 하는데, 그러다 보면 특정 개인이나 집단을 향한 비난이 쉽게 극단적으로 변질될 가능성이 높아진다. 

 

비속어에서 밈까지, 사이버불링 막을 수 있을까


이처럼 사이버불링은 알고리즘을 매개로 급격히 퍼지고, 피해자는 자신도 모르는 사이에 수천, 수만 명 앞에서 공개적으로 공격당하는 경우까지 있다. 그렇다면 과학은 이 문제를 해결하는 데서 어떤 역할을 할 수 있을까? 하루에도 수천만 개의 게시물이 쏟아지는 디지털 공간에서 악성 댓글을 사람이 일일이 감시하기란 불가능하다. 이에 따라 사이버불링을 감지·차단할 디지털 ‘프로파일러’로서 AI와 머신러닝, 데이터 분석 기술이 활발히 연구 중이다.


사이버불링을 막기 위해 처음 도입된 방법은 비속어, 욕설과 같은 금칙어의 필터링이었다. 하지만 금칙어 알고리즘을 피해 ‘멍청이’를 ‘멍*이’나 ‘똑똑하네ㅋㅋ’처럼 단어를 살짝 바꾸거나, 비꼬기와 조롱 같은 교묘한 방식으로 AI 감시를 피해갔다. 다시 이를 막기 위해 자연어 처리(NLP) 기반 AI가 등장했으며, 대규모 언어 모델(LLM·Large Language Model)을 활용한 탐지 시스템도 문맥을 분석하고 은유적 표현을 감지하도록 개발 중이다.


한 단계 더 나아가, 사용자의 감정적 비난을 완화해주는 AI도 개발되고 있다. 미국 매사추세츠공대(MIT) 솔브 프로젝트에서 개발한 사이버불링 AI(Cyberbullying.AI)는 사용자의 키보드에 탑재돼 실시간으로 작동하는 AI 시스템이다. 사용자의 공격적인 표현을 감지하면, 즉시 “이렇게 표현해보는 건 어떨까요?”라고 긍정적인 표현으로 유도한다. 연구팀에 따르면, 이 시스템은 92%의 정확도로 사이버불링을 탐지하는 것으로 나타났다.


하지만 악의적인 매체는 글 외에도 많다. 최근엔 비방이 담긴 ‘짤(meme)’이나 공격적 음성이 들어간 영상이 불링 도구로 쓰인다. 이런 불링에 맞서 이미지와 영상 속 숨겨진 공격적인 요소를 감지하는 멀티모달 AI(Multimodal AI)가 떠오르고 있다. 이 기술은 텍스트뿐만 아니라 사진 속 표정과 몸짓, 영상에서 나타나는 목소리의 톤과 감정을 종합적으로 분석해 사이버불링 여부를 판단한다.

 

온라인 속 집단괴롭힘의 관계도를 그리는 SNA


소셜네트워크분석(SNA·Social Network Analysis) 기술을 적용해 사이버불링이 어디서, 어떻게 퍼지는지 추적할 수도 있다. SNA는 누가 누구를 괴롭히고 있으며, 어떤 네트워크를 통해 확산되는지 분석하는 데 초점을 맞춘다. 예를 들어 특정 사용자가 반복적으로 공격적인 언급을 하거나, 여러 계정이 조직적으로 특정인을 겨냥하는 패턴이 형성되면 AI가 이를 자동으로 감지할 수 있다.


컴퓨터과학 분야의 국제 학회인 ACM(Association for Computing Machinery)에서 발표된 논문에 따르면, 소셜미디어 데이터를 분석해 90% 이상의 정확도로 사이버불링 가해자를 식별하는 AI 기반 머신러닝 모델도 개발됐다. 이 연구진은 트위터(현 X)에서 120만 명의 사용자와 210만 개의 트윗을 분석한 가해 패턴을 기반으로 자동 탐지 시스템을 구축했다. doi: 10.1145/3343484

 

디지털 윤리가 알고리즘에 필수인 이유


사이버불링은 더 이상 개인의 문제가 아니다. 이것은 디지털 환경의 구조적인 문제다. 현재 일부 연구팀은 디지털 윤리 알고리즘을 개발 중이다. 이 알고리즘은 유해 콘텐츠 차단 기능에서 더 나아가, AI 시스템에 윤리적 원칙을 통합해 온라인 공간에서 긍정적 상호작용을 촉진하는 것을 지향한다.


기술은 중립적이지 않다. 온라인 공간을 이끄는 알고리즘의 설계 방식에 따라 더 폭력적이고 강압적인 공간이 될 수도 있고, 반대로 더 건강하고 자유로운 공간이 될 수 있다. 우리가 어떤 방향을 선택하느냐에 따라 온라인 세상의 미래는 완전히 달라질 것이다. 이젠 질문을 던질 때다. 우리는 더 나은 디지털 세계를 만들 준비가 됐는가.

 

AI가 감지하고 인간이 판단하는 사이버불링 솔루션

 

사이버불링 탐지 기술이 정교해질수록 이 탐지를 피해가는 방식도 점점 더 교묘해지고 있다. 이에 대응해 적응형 인공지능(AI)가 등장했지만, 이 AI가 문맥을 완벽히 이해하고 인간의 감정을 파악하기란 여전히 쉽지 않다. 같은 단어도 맥락에 따라 농담도, 악의적인 조롱도 될 수 있다. AI가 특정 키워드를 근거로 무고한 사용자를 가해자로 오인하는 상황도 대비해야 한다. 그래서 AI가 탐지한 데이터를 사람이 최종 검토하는 ‘하이브리드 탐지’ 기술이 활용된다.


AI의 개입이 너무 강해지면 발생하는 또 다른 문제도 있다. 정당한 비판이나 풍자까지 차단될 가능성이다. 표현의 자유와 안전한 온라인 사이에서 균형을 맞추기란 쉽지 않다. ‘설명 가능한 AI(XAI·Explainable AI)’가 개발 중인 이유다. XAI는 AI가 콘텐츠를 차단한 이유를 투명하게 공개해서, 사용자와 플랫폼 운영자가 이를 검토할 수 있도록 한다. AI가 검열자의 역할에서 공정성을 유지하는 도구로 역할을 확장하는 것이다.

Selvaraju et al.

사이버불링을 탐지하는 AI의 역할이 중요해지면서, AI의 오류를 줄이고 사이버불링으로 탐지한 근거를 사용자와 투명하게 공유하기 위한 ‘설명 가능한 AI(XAI)’가 개발되고 있다. 사진은 웹상의 이미지를 기계 학습한 데이터에 따라 분류, 판단하고 그 근거를 제시하는 XAI 모델 중 하나인 ‘그래드 캠(Grad-CAM)’의 예시다.

 

이 기사의 내용이 궁금하신가요?

기사 전문을 보시려면500(500원)이 필요합니다.

2025년 4월 과학동아 정보

  • 이종림
  • 에디터

    라헌
  • 디자인

    박주현
이 기사를 읽은 분이 본
다른 인기기사는?