d라이브러리









[기획][PART2] 슬롭, 내버려둬도 괜찮을까?

▲Firefly, 이한철
과학동아가 제작한 슬롭 이미지. 개가 카페에서 커피를 마시는 듯한 장면은 맥락과 사실성이 결여돼 있다. 그럼에도 시각적 자극만으로 알고리즘을 통해 쉽게 확산될 수 있는 콘텐츠를 의도했다.

 

슬롭이 만든 ‘가치 없는’ 정보는 휴식감을 준다지만, 실제로 사람들은 슬롭을 보면서 휴식하지 못한다. 그리고 휴식한다는 착각 때문에 오히려 사고 능력이 저하될 수 있다고 전문가들은 지적한다. 
슬롭이 개인과 사회에 미칠 파장은 어디까지일까. 슬롭의 다양한 영향력을 파악하고, 어떻게 대처해야 할지 알아본다. 

 

내용 없는 슬롭 볼 때 뇌의 반응은?
자료 출처 : Shutterstock, Nano Banana, 이한철
내용 없는 슬롭 시청
콘텐츠 시청자는 휴식하는 기분을 느끼기 위해 ‘정보 유용성’이 떨어지는 슬롭을 소비한다.
도파민 분비
뇌가 짧고 새로운 자극을 받아들이면서, 뇌의 측좌핵에서는 신경전달물질인 도파민이 분비된다.
뇌의 피로도 증가
뇌가 휴식하지 못하고, 집중력이 소모돼 인지 피로가 쌓인다.

 

2025년 9월 미국 노스이스턴대 연구팀은 글쓰기와 언론, 철학, 자연어 처리(NLP) 분야 전문가 19명에게 슬롭의 기준을 만들어달라 요청했다. doi: 10.48550/arXiv.2509.19163 전문가들은 사람들이 특정한 글을 ‘슬롭’으로 느끼게 만드는 요인을 정리했다. 정보의 유용성과 표현 방식의 품질,  정보의 품질 이렇게 3가지의 가치가 없을 때였다. 정보 유용성은 시청자나 독자가 필요로 하는 정보가 있는지, 표현 방식의 품질은 문장의 흐름이나 이야기의 맥락이 사람이 만든 것처럼 자연스러운지를 의미한다. 정보의 품질은 콘텐츠에 담긴 정보가 사실인지, 한쪽으로 편향되지 않았는지를 말한다. 과학동아는 슬롭의 3가지 속성을 영상과 이미지 등에도 적용해 슬롭 콘텐츠가 우리 삶에 어떤 영향을 미칠지 뇌와 교육, 인공지능(AI), 미디어 전문가에게 물었다. 

 

ㅡ ‘내용 없음’이 주는 피로 ㅡ

 

“사람들은 정보가 적은 콘텐츠를 볼 때 쉰다고 착각합니다.” 1월 7일 KAIST에서 만난 정아인 바이오및뇌공학과 교수는 이와 같이 말하며 슬롭의 부작용을 우려했다. 정 교수가 지적한 슬롭의 속성은 ‘정보 유용성 부족’이다. 사람들은 정보 유용성이 떨어지는 슬롭을 보면서 휴식한다고 착각하지만, 슬롭을 볼 때도 결국 뇌가 짧고 새로운 자극을 받아들이면서, 뇌의 측좌핵에서는 신경전달물질인 도파민이 분비된다. 


도파민이 분비되면 쾌락과 성취감을 느낄 수 있다. 하지만 자극이 계속되면 뇌가 휴식 모드로 전환되지 못하고 집중력을 소모한다. 정 교수는 “뇌가 쉬어야 할 시간에 쉬지 못해서 피로도가 높아지면, 집중해야 하는 순간에도 집중하지 못하는 문제가 생긴다”고 말했다. 학습, 글을 읽으며 상상하는 작업, 정보를 분석해 비판적으로 판단하는 작업 등이 힘들어진다. 


특히 전두엽이 발달하는 청소년기에 슬롭이 뇌에 미치는 영향은 크다. 전두엽은 사고력과 추리 능력을 담당하는 부위다. 슬롭으로 뇌의 피로가 증가하면 전두엽을 통해 사고하는 훈련이 부족해져 사고력과 창의력 발달이 저해된다. 


실제로 슬롭이 어린이에게 미치는 영향을 정성적으로 알아보기 위해 변태훈 부산 학장초 교사를 1월 6일 만났다. 그는 AI융합교육 분야를 교사들에게 강의하고 있다. 교단에서 AI의 영향력을 목격해 온 변 교사는 슬롭의 ‘부자연스러운 표현 방식’이 어린이에게 미칠 영향을 우려했다. 변 교사는 “사람은 단순히 언어로만 의사소통하는 게 아니라 손동작과 표정 같은 비언어, 어조 같은 반언어도 사용하는데 슬롭에는 비언어와 반언어가 어색하게 담겨 있는 경우가 많아 어린이들이 잘못된 의사소통 방식을 배울 위험이 있다”고 말했다.


앞서 슬롭의 속성을 정의한 노스이스턴대 연구팀도 논문에서 슬롭의 부자연스러운 표현 방식을 짚었다. 연구팀은 같은 문장 구조가 반복되고, ‘~할 수 있다’와 ‘~한 측면이 있다’는 모호한 표현이 자주 나오며, 사람들이 잘 쓰지 않는 어려운 어휘도 갑자기 등장한다고 분석했다. 어린이들이 이런 표현을 자주 접하면, 맥락에 맞지 않는 어휘를 사람들이 흔히 쓰는 표현으로 비판 없이 받아들일 위험이 있다. 


“슬롭의 낯선 표현 방식을 어린이들이 창의적인 것으로 여길까 봐 걱정돼요.”


변 교사는 2025년 초 학생들 사이에서 유행했던 ‘이탈리안 브레인롯’ 밈을 떠올리며 이와 같이 말했다. 이탈리안 브레인롯이란 운동화를 신은 상어, 몽둥이를 든 나무 이미지에 의미 없는 말을 덧붙인 영상 콘텐츠다. 학생들은 의미 없는 말에 담긴 운율을 신나게 느끼고 따라 부르기 시작했다. 그는 “창의성은 제작물의 ‘맥락’과 사람의 ‘의도’에서 나오는 건데, 이탈리안 브레인롯 같은 슬롭은 맥락 없이 AI가 재조합한 결과물”이라고 했다. 슬롭을 만들 때 쓰는 AI는 대부분 사용자의 구체적인 지시 없이도 스스로 과제를 수행하는 에이전틱(agentic) AI다. 에이전틱 AI를 이용하면, AI가 뽑아낸 주제로 AI가 내용을 구성해 슬롭을 만든다. 창의성이란 ‘알맹이’ 없는 콘텐츠를 계속 접하면 스스로 창의적인 콘텐츠를 생산할 역량이 떨어진다는 게 변 교사가 우려하는 지점이다. “어린이들이 이를 창의적인 것으로 인식하고, 창의성을 제대로 기르지 못할까 봐 걱정됩니다.”

 

슬롭의 3가지 유형
콘텐츠를 슬롭으로 느끼게 만드는 요인은 3가지가 있다. 정보 유용성, 표현 방식의 품질, 그리고 정보의 품질이 떨어지는 경우다. 이 중에서도 정보의 품질이 떨어지는 슬롭은 가장 경계해야 할 대상이다. AI가 만든 콘텐츠 속 정보가 옳다고 곧이곧대로 받아들일 경우 직접적인 피해가 발생하기 때문이다. 각각의 예시를 소개한다.
 
▲_ai.asmr
정보 유용성이 떨어지는 경우
어항을 자르는 영상은 그저 신기할 뿐, 콘텐츠 소비자가 활용할 만한 정보가 담겨있지 않다.
 
▲@Life_saviour_s
표현 방식의 품질이 떨어지는 경우 
실제와 다른 부분이 눈에 띈다. 고래 등이 어색하게 갈라지고 꼬리 쪽에 있던 사람은 갑자기 사라진다.
 
▲mikewaynedotcom
정보의 품질이 떨어지는 경우 
가짜뉴스다. 이 계정엔 미국 이민세관단속국(ICE)에 대한 부정적 인식을 부르려는 슬롭이 가득하다.

 

ㅡ 거짓과 편향이 섞인 슬롭, 독이 될 수도 ㅡ

 

‘정보의 품질’이 떨어지는 슬롭은 콘텐츠 소비자에게 잘못된 정보를 전달할 수 있다. 2025년 12월 15일, 식품의약품안전처는 2025년 10월 28일부터 12월 12일까지 식품 관련 업체 12개소가 AI로 가상의 전문가가 나오는 영상을 만들어 식품을 광고하고, 약 84억 원의 식품을 판매했다고 밝혔다. 식품 업체들은 가상의 의사가 ‘이 약을 먹으면 전립선 비대증이 회복된다’거나 ‘이 약을 먹으면 방광염이 완치된다’고 말하는 영상을 AI로 만들어 특정 식품이 질병을 치료하는 데 효과가 있는 것처럼 광고했다. 


AI 영상 속 가상의 의사는 실제 의사의 모습처럼 정교하게 만들어져 소비자들에게 혼돈을 줬다. AI가 이미지를 생성하는 기술이 정교해지면서 AI가 만든 영상을 사람이 직접 촬영한 영상과 구별하기 어려워졌다. 소비자들이 식품 업체들의 허위 광고 영상을 실제 의사가 말한 영상으로 오해했듯이 AI가 생성한 게시물을 보고, 실제 있었던 일을 사람이 촬영했다고 오해하면서 거짓 정보가 확산되기 쉬워졌다. 


1월 5일 서울대에서 만난 김희진 데이터사이언스대학원 교수는 “사실과 거짓, AI가 만든 제작물과 사람이 만든 제작물을 구별하기 어려워지면 콘텐츠 소비자는 결국 사람이 만든 제작물까지 의심하게 되고, 이는 플랫폼이란 온라인 공간 전반에 대한 신뢰를 저해할 수 있다”고 우려했다. 


이러한 문제를 막기 위한 AI 탐지 기술이 있지만, 탐지 기술은 근본적인 해결책이 되기 어렵다. 에이전틱 AI를 연구하는 송경우 연세대 응용통계학과 교수는 “AI를 탐지하는 기술이 발전하는 동시에 탐지를 방어하는 기술도 같이 발전한다”며 “현재는 어떤 장비로 촬영하고 편집했는지 ‘메타데이터’를 분석해 AI 생성물 여부를 판단하지만, 미래에는 메타데이터 분석도 막는 AI가 나올 것”이라고 예측했다. 또 “구글 등의 플랫폼은 AI로 만든 제작물에 워터마크를 심어두고 있지만 향후 워터마크를 지우는 AI를 다시 활용하게 되면 결국 무용지물이 될 수 있다”고 말했다. 


정보 품질이 떨어지는 슬롭을 AI가 다시 학습하면서 AI가 생성한 정보의 ‘편향성’이 강화되는 문제도 있다. AI는 방대한 정보 중에 ‘대다수’가 되는 정보를 ‘보편적’인 정보로 학습한다. 2023년 미국 스탠퍼드대 연구팀은 생성형 AI DALL-E에 ‘매력적인 사람’을 입력하면 백인이, 가난과 범죄를 입력하면 흑인이 나오고, 테러리스트를 검색하면 중동 남성의 모습이 생성됐다고 밝혔다. doi: 10.1145/3593013.3594095 온라인에 검색했을 때 자주 뜨는 이미지를 AI가 학습한 결과다. 이처럼 사람이 개입하지 않고 AI가 만들어 낸 편향적인 이미지를 AI가 다시 학습하고 생성하면, 편향적인 이미지가 다시 소셜 미디어를 통해 확산되고 소수의 정보는 무시되는 악순환이 반복된다. 송 교수는 이러한 악순환 때문에 AI가 다양한 가치관을 반영하지 못한 정보를 만들 것을 우려했다. 변 교사 역시 “어린이들이 가치관이 한쪽으로 치우친 슬롭을 보거나, 이 슬롭을 학습한 AI를 이용하다가 편향된 가치관을 지니게 될까 걱정된다”고 말했다. 

 

▲챗GPT
2025년 12월 식품의약품안전처는 “식품 업체 12개소가 AI로 가상의 전문가가 나오는 영상을 만들어 식품을 허위 광고했다”고 밝혔다. 사진은 과학동아가 챗GPT로 만든, 거짓 정보가 담긴 식품 광고 이미지다.

 

ㅡ ‘AI 기본법’이 슬롭 범람 막을까 ㅡ

 

AI가 빠르게 발전하면서, 우리 사회는 많은 변화를 겪었다. 슬롭처럼 빠르게 세를 불리는, 그리고 그 영향이 어디까지일지 가늠할 수 없는 AI 콘텐츠가 우후죽순 쏟아져 나오는 것도 그 변화 중 하나다.


한국에서는 2026년 1월 22일부터 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI기본법)’이 시행됐다. AI로 만든 콘텐츠가 사회에 미치는 악영향을 방지하기 위해 AI기본법 31조에는 ‘인공지능 투명성 확보 의무’가 포함돼 있다. 간단히 말해 AI로 생성한 콘텐츠에는 ‘이 콘텐츠가 AI를 이용해 생성됐다’는 표시를 붙여야 한다는 조항이다. AI 윤리 및 법률 전문가인 김 교수는 “AI 생성 사실을 표시해야 한다는 점은 투명성 원칙의 한 구성 요소이며, 투명성 원칙은 AI 개발·사용의 신뢰성 기반을 다지는 기초가 된다”면서 “AI 윤리 부문에서 오랫동안 논의된 지점이 법제화된 것이며, 이 같은 추세는 유럽연합(EU), 미국 등 세계 각국의 규제 논의에서도 살펴볼 수 있다”고 말했다.


이런 맥락에서 AI기본법의 경우 콘텐츠 창작자들에게 AI 창작물임을 투명하게 알리는 의무를 부과한다. 더하여, 2025년 12월 24일 국회를 통과한 ‘정보통신망 이용촉진 및 정보보호 등에 관한 법률(정보통신망법) 일부개정법률안(개정안)’에서는 콘텐츠 제작자뿐 아니라 인스타그램, 유튜브 등 온라인 플랫폼 사업자에게도 가짜뉴스가 담긴 AI 콘텐츠의 확산에 대한 책임을 묻는다. 슬롭의 부정적 영향을 막기 위한 이 법이 제대로 시행되기 위해서는 AI 콘텐츠를 둘러싼 이해관계자들이 함께 노력해야 한다. AI 콘텐츠를 만드는 창작자, AI 콘텐츠를 만드는 툴을 제공하는 개발자, AI 콘텐츠를 대중에게 보여주는 콘텐츠 사업자가 여기에 속한다.


박만수 한국콘텐츠진흥원 콘텐츠산업정책연구센터 선임연구원은 과학동아와의 e메일 인터뷰에서 “실제로 최근 플랫폼 사업자들은 슬롭 확산을 문제로 인식하고 규제를 강화하고 있다”고 말했다. 그는 “유튜브 역시 2025년부터 대량 생산되는 슬롭에 대한 수익화 정책을 조정하며 콘텐츠의 본질과 품질을 중시하는 방향으로 (운영 방침을) 조정했다”면서 “이는 AI를 창작 역량을 확장하는 도구로 활용하도록 유도하고, 플랫폼의 신뢰도를 회복하며 책임 있는 생태계를 구축하려는 전략으로 볼 수 있다”고 말했다.


물론 슬롭을 이용하는 이들에게도 과제가 있다. 인지과학 전문가인 정 교수는 “정교하게 만든 AI 콘텐츠를 실제 영상과 구분하는 건 이제 인간의 뇌로는 어려운 일”이라면서 “양질의 콘텐츠를 다양하게 접해, 콘텐츠를 올바르게 받아들일 수 있는 눈을 갖추는 건 결국 사람에게 달린 것”이라고 강조했다. 콘텐츠의 맥락을 읽어 사실 여부를 구분하는 AI 리터러시는 앞으로 더 중요한 능력이 될 전망이다.

 

▲월트 디즈니 컴퍼니 코리아
AI로 제작한 영상이 우후죽순 쏟아지는 현재, 사람이 머릿속으로 상상한 장면을 직접 끄집어내 만든 콘텐츠는 특별한 가치를 가진다. 사진은 2025년 12월 17일 3번째 시리즈가 개봉한 영화 ‘아바타: 불과 재’의 제작 과정이다. 아바타 시리즈는 AI를 사용하지 않고 가상 행성 ‘판도라’에서 펼쳐지는 모험을 그린다.

 

ㅡ 슬롭이란 파도에 현명하게 올라타는 법 ㅡ

 

▲<장효빈/div>
AI가 만든 게시물과 사람이 만든 제작물을 구별하기 어려운 시대다. 변태훈 부산 학장초 교사는 어린이와 청소년이 게시물의 사실 확인을 꼼꼼히 하는 디지털 문해력을 기르는 게 중요하다고 강조했다.

 

과학동아가 만난 전문가들은 입을 모아 “슬롭이 우후죽순 쏟아지는 트렌드는 이제 돌이킬 수 없다”고 말했다. 그러면서 “AI란 도구를 사용하는 이들의 태도가 중요해질 것”이라고 했다.


콘텐츠산업정책을 연구하는 박 선임연구원은 “앞으로 콘텐츠 생태계는 대량 생산되는 저가형 슬롭과 AI 기술을 효과적으로 활용한 고품질 콘텐츠로 이분화할 것”이라고 전망했다. 김 교수는 “과거엔 정보 획득, 의사소통 등을 위한 목적을 중심으로 콘텐츠를 소비했다면, 최근에는 가벼운 재미를 위한 콘텐츠 소비가 하나의 흐름으로 자리 잡고 있다”면서 “시대의 변화 속에서 자연스레 퍼지는 슬롭의 영향을 우리가 어떻게 대처해야 할지 생각해 봐야 한다”고 했다.


AI로 슬롭을 만드는 창작자가 있는 한편, AI 덕에 창작의 제약이 사라진 창작자도 있다. AI 영상 콘텐츠를 제작해 유튜브에 공개하고 있는 창작자 ‘에테르랜드’는 과학동아와의 인터뷰에서 “영상 디자이너로 10년 넘게 일하면서 AI 도구를 마냥 외면할 수는 없겠다는 생각에 AI 공부를 시작했다”면서 “전문적인 기술이 없어도 누구나 혼자서 영상 콘텐츠를 처음부터 끝까지 만들 수 있다는 점”을 AI의 장점으로 꼽았다. 


그도 AI를 좋은 도구로 봐야 한다는 점을 강조했다. “아직은 촬영부터 편집까지 사람이 직접 만드는 방식이 영상의 질이나 감성 면에서 더 낫다고 생각합니다. 지금 시점에서는 AI를 필요한 부분에 적절하게, 보조적으로 사용하는 것이 가장 현실적인 방향이라고 생각합니다.”


AI를 도구로서 잘 활용하기 위해선 ‘창작물을 만드는 사람의 고민’이 중요하다. 또 다른 AI 영상 콘텐츠 창작자인 NABI는 “제 창작물을 보고 위로를 얻었다는 반응을 보면서, 더 좋은 콘텐츠를 만들기 위해 AI를 어떻게 활용할지 늘 고민한다”고 말했다.


슬롭이란 단어의 의미를 다시 생각해보자. 슬롭은 원래 쓰레기, 찌꺼기란 뜻이다. 유의미한 가치를 찾기 어려운 콘텐츠가 바로 슬롭이다. 그래서인지 슬롭에 달린 댓글 중에는 “진짜인 줄 알고 봤는데, 가짜라서 짜증이 난다”는 반응이 많다. 우리는 AI 콘텐츠 자체를 싫어하는 것이 아니다. 시간을 들일 가치가 없는 콘텐츠를 싫어하는 것이다. 슬롭의 범람은 우리가 가짜 보석 가운데 진짜 보석을 공들여 구분해야 하는 수고를 감당하도록 했다. 박 선임연구원은 슬롭이라는 파도에 맞설 경쟁력 있는 콘텐츠의 요건을 이렇게 설명했다.


“초기에는 AI가 만든 콘텐츠 자체에 흥미와 놀라움을 느꼈지만, 이제는 이용자들도 AI 기술에 익숙해진 상황입니다. 그만큼 콘텐츠를 평가하는 기준은 기술보다 객관적 사실과 진정성으로 이동하고 있습니다. 대량으로 유통되는 슬롭에 피로감이 누적되면서, 앞으로는 투명성, 진정성, 창의성, 그리고 윤리성을 바탕으로 한 신뢰가 더 중요해질 것으로 보입니다.” 

이 기사의 내용이 궁금하신가요?

기사 전문을 보시려면500(500원)이 필요합니다.

2026년 02월 과학동아 정보

  • 장효빈, 김소연
  • 디자인

    이한철
이 기사를 읽은 분이 본
다른 인기기사는?