전 세계 당국과 기업 들이 AI가 만드는 가짜 뉴스에 대응하기 위한 대책 마련을 하고 있다. 그러나 전문가들은 대중들의 기관에 대한 불신과 온라인 상의 가짜 이미지, 영상 및 오디오를 집어낼 수 있는 능력 부족으로 이러한 노력들이 힘을 못 쓸 수 있다고 말한다.
딥페이크 분석 전문가이자 UC 버클리의 교수 헨리 파리드는 블룸버그에 “우리가 팩트체크를 하고 ‘이것은 가짜다’라고 말을 해도, 사람들은 ‘나는 상관 안 해. 이것이 나의 세계관에 맞는 것이야‘라고 말한다. 사람들이 잡히지 않는 현실 세계 속에서 살고 있는 이유는 우리 정치인들, 미디어, 인터넷이 불신을 부추겨왔기 때문이다”라고 말했다.
전문가들은 수 년 동안 인공지능이 가짜 뉴스를 더욱 가속화시킬 가능성에 대해 경고해 왔다. 그러나 이에 대해 조치를 취해야 한다는 압박은 시각화 및 텍스트화 된 결과를 낮은 비용으로 쉽게 생산하는 강력한 생성형 AI들이 출시된 올해 들어 더욱 강해졌다.
미국에서는 AI가 생성한 가짜 뉴스가 2024 미국 대선에 영향을 줄 수 있다는 두려움이 일고 있다. 유럽은 대표적인 글로벌 소셜미디어 플랫폼들에게 새로운 법 규정 하에 가짜 뉴스 확산에 맞설 것을 요구하고 있다.
AI 생성 가짜 뉴스의 범위와 영향이 아직까지는 불확실하다고 하지만, 우려를 할 만한 이유가 있다. 지난 주 블룸버그는 슬로바키아에서 총선을 며칠 앞두고 AI가 생성하는 정치인들의 딥페이크 목소리가 온라인에 확산되고 있다는 보도를 했었다. 미국과 독일에서는 일부 정치인들이 AI 생성 이미지들을 온라인 상에 공유하고 있다.
하버드대학교의 인터넷 및 사회를 위한 버크만 클라인 연구소(Berkman Klein Center for Internet & Society)의 연구원이자 X(구 트위터)의 전 연구팀장 루만 차우드허리는 가짜 뉴스와 싸우는 데 있어 인간의 불완전성이 문제의 일부라고 말했다. 그는 “챗봇의 악의적인 이용자들이 있다. 그러나 실제로는 온라인 상의 가짜 정보의 매우 큰 비중이 정보에 대해 잘 모르는 사람들에 의해 공유된다”라고 말했다.
하우드허리는 일반적으로 인터넷 이용자들이 의심스러운 이메일 및 소셜미디어 포스트의 경험을 다년 간 쌓아 가짜 포스트를 잡아내는 데 똑똑하다고 말했다. 그러나 AI가 더 사실적인 가짜 이미지 및 오디오, 영상을 만들 수 있게 되면서, 이러한 수준에 맞는 교육이 사람들에게 필요하게 됐다고 한다.
그는 “예를 들어 펜타곤에 폭격을 맞은, 사실처럼 보이는 영상을 보면, 대부분은 이를 믿을 것이다. 펜타곤이 폭격에 맞았다는 포스트를 본다면, 더 의심할 가능성이 있다. 사람들이 영상이나 이미지보다 텍스트에 더 학습됐기 때문이다”라고 덧붙였다.
[위키리크스한국 = 최정미 기자]
prtjami@wikileaks-kr.org