[인공지능 줌인] 틱톡에서 번지고 있는, 실제 아동 살해 사건을 빙자한 AI 가짜 동영상들
[인공지능 줌인] 틱톡에서 번지고 있는, 실제 아동 살해 사건을 빙자한 AI 가짜 동영상들
  • 유 진 기자
  • 승인 2023.06.18 06:48
  • 수정 2023.06.18 06:48
  • 댓글 0
이 기사를 공유합니다

틱톡에 올라온, 살인 피해 어린이를 빙자한 딥페이크 동영상 중 한 장면 [틱톡 캡처]
틱톡에 올라온, 살인 피해 어린이를 빙자한 딥페이크 동영상 중 한 장면 [틱톡 캡처]

과거 실제로 일어났던 살인 사건을 빙자해서 AI(인공지능)로 생성한 가짜 동영상들(deepfakes)이 틱톡에 올라오고 있다고, 최근 ‘롤링스톤닷컴(rollingstone)’이 경고했다. ‘롤링스톤닷컴’은 팝 문화와 음악, 연예계 소식 등을 다루는 온라인 플랫폼이다.

실제로 일어난 살인 사건은 사람들의 호기심을 자극하는 강력한 소재 중 하나에 속한다. 틱톡(TikTok)의 일부 계정은 이런 심리에 편승해 실제 범죄에 AI가 생성한 콘텐츠를 적용해 대중의 관심을 충격적인 수준으로 끌어올리고 있다. 이런 계정들은 실제로 벌어졌던 살인 사건의 피해자들(주로 아동들)을 AI로 재생해 그 사건들이 다시 한 번 회자되도록 하고 있다.

“너무 괴이하고 소름끼치는 콘텐츠들입니다.”

뉴헤이븐 대학의 형법학 담당 조교수인 폴 블리클리는 이렇게 말했다. 

“그런 것들을 올리면 강렬한 감정 반응과 함께 클릭과 ‘좋아요’를 확실하게 얻을 수 있기 때문에 제작해서 유포하는 것 같습니다. 보기 불편하지만, SNS에서는 그런 게 대세이지요.”

틱톡상의 ‘@truestorynow’ 및 ‘Nostalgia Narratives’와 같은 계정은 수만 명의 팔로워를 거느리면서 살인 피해자가 살해되었을 때 일어난 일을 아무렇지도 않게 묘사하는 사실적인 딥페이크(deepfake) 동영상을 게시하고 있다. 콘텐츠 중에는 조지 플로이드(George Floyd)와 같은 떠들썩한 사건의 성인 희생자를 보여주기도 하지만, 묘사된 피해자들의 대부분은 아동들이다.

“내가 21개월일 때 할머니가 나를 230도 오븐에 넣어버렸습니다.”

@truestorynow이 올린, AI로 생성한 짧은 딥페이크 영상 중 하나에서 살인 사건의 피해 어린이는 이렇게 말하고 있다.

이 동영상 클립에서는 ‘로디 마리 플로이드’로 명명된 어린 소녀는 2018년 할머니에 의해 칼에 찔린 뒤 오븐에 넣어져 불에 탄, 20개월 된, ‘로열티 마리 플로이드’라는 실제 살인 사건 피해자를 암시하고 있다.

플로이드의 어머니는 딸이 참혹하게 사망한 뒤 페이스북에 “로열티 마리 플로이드는 내 생애 최고의 선물이었습니다.”라고 슬픔을 털어놓았었다.

“그녀는 내 유일한 딸이었습니다. 나의 첫사랑이자 내가 인생에서 겪어야 했던 가장 힘든 일이었습니다. 가슴이 찢어질 것 같습니다.”

‘로디 마리 플로이드’ 같은 틱톡 콘텐츠들은 수백만 건의 조회수를 기록했다.

살인 피해 아동 가족들의 상처에 소금을 붓는 역할을 하는, 틱톡의 딥페이크 영상 중 하나 [틱톡 캡처]
살인 피해 아동 가족들의 상처에 소금을 붓는 역할을 하는, 틱톡의 딥페이크 영상 중 하나 [틱톡 캡처]

‘롤링스톤’은, ‘Nostalgia Narratives’와 같은 계정들은 딥페이크 이미지들을 제작함에 있어 피해자 가족들을 존중하는 차원에서 피해자의 실제 사진은 사용하지 않는다고 주장한다고 보도했다. 또한 틱톡 측도 그런 이미지의 사용을 막고 있다. 틱톡의 커뮤니티 가이드라인은 개인이나 청소년을 대상으로 하는 딥페이크 포스팅을 금지한다.

하지만 사진의 진위 여부와 상관없이 소재는 실제 일어난 사건이다. 그리고 블리클리 교수 같은 전문가들은 가족의 허락 없이 사용되는 이런 콘텐츠들은 궁극적으로는 살인 피해자 가족들의 상처에 소금을 붓는 역할을 한다고 확신한다.

“당신이 이런 콘텐츠들에 등장하는 아동 피해자들의 가족이라고 생각해보세요. 당신이 온라인에 접속했다가, AI로 생성한 딥페이크 이미지와 함께 살해당한 당신 아이가 지르는 비명과 유혈이 낭자한 장면을 보게 된다면 어떤 생각이 들까요?”

블리클리 교수는 ‘롤링스톤’과의 인터뷰에서 이렇게 말했다.

‘롤링스톤’은 현재로서는 이 같은 동영상 콘텐츠들은 완전히 합법적이라고 밝혔다. 합의되지 않은 딥페이크 이미지와 동영상을 올려도 이를 명시적으로 금지하는 연방법률이 없기 때문이다. 살인 피해자의 가족은 이런 딥페이크 콘텐츠들에 다시 한 번 좌절하지만, 이에 대해 항의할 법적 구제장치가 없는 것이다.

게다가 틱톡에 등장하는 살인 피해자의 AI 클립들은 더 기승을 부릴 공산이 크다. ‘롤링스톤’의 지적처럼 콘텐츠 제작자가 AI를 활용해 소름끼치는 범죄를 세부사항까지 재현해도 이를 막을 장치가 없기 때문이다.

“이는 새로운 기술이 등장할 때마다 항상 떠오르는 질문입니다.”

블리클리 교수는 이렇게 주장했다. 

“얼마나 가야 멈출까요?”

한편, 틱톡은 살인 피해자를 등장시킨 딥페이크의 제작 흐름을 막기 위해 애쓰고 있다. 관련해서 ‘롤링스톤’은 팔로워가 거의 50,000명에 달하던 @truestorynow 계정이 삭제되었다고 보도했다. 그러나 틱톡 플랫폼 전체에서 비슷한 류의 다른 딥페이크 콘텐츠들은 여전히 쉽게 찾을 수 있다.

[위키리크스한국 = 유 진 기자]

yoojin@wikileaks-kr.org

기자가 쓴 기사

  • 서울특별시 마포구 마포대로 127, 1001호 (공덕동, 풍림빌딩)
  • 대표전화 : 02-702-2677
  • 팩스 : 02-702-1677
  • 청소년보호책임자 : 소정원
  • 법인명 : 위키리크스한국 주식회사
  • 제호 : 위키리크스한국
  • 등록번호 : 서울 아 04701
  • 등록일 : 2013-07-18
  • 발행일 : 2013-07-18
  • 발행인 : 박정규
  • 편집인 : 박찬흥
  • 위키리크스한국은 자체 기사윤리 심의 전문위원제를 운영합니다.
  • 기사윤리 심의 : 박지훈 변호사
  • 위키리크스한국 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재와 복사, 배포 등을 금합니다.
  • Copyright © 2024 위키리크스한국. All rights reserved.
  • [위키리크스한국 보도원칙] 본 매체는 독자와 취재원 등 뉴스 이용자의 권리 보장을 위해 반론이나 정정보도, 추후보도를 요청할 수 있는 창구를 열어두고 있음을 알립니다.
    고충처리 : 02-702-2677 | 메일 : laputa813@wikileaks-kr.org
ND소프트