[인공지능 줌인] AI가 만들어내는 가짜 이미지와 전쟁을 벌이고 있는 테크 기업들
[인공지능 줌인] AI가 만들어내는 가짜 이미지와 전쟁을 벌이고 있는 테크 기업들
  • 유 진 기자
  • 승인 2023.06.10 07:23
  • 수정 2023.06.10 07:30
  • 댓글 0
이 기사를 공유합니다

“사실이 무엇인지 구분하기 어려운 세상으로 접어들고 있다”
펜타곤 폭발 장면을 연출한 가짜 이미지 [사진 = 연합뉴스 / 토론토대 산하 싱크탱크 연구원 존 스콧-레일턴 트위터 캡처]
펜타곤 폭발 장면을 연출한 가짜 이미지 [사진 = 연합뉴스 / 토론토대 산하 싱크탱크 연구원 존 스콧-레일턴 트위터 캡처]

AI(인공지능)로 만든 가짜 정보가 활자를 넘어 이미지로도 세상을 혼탁하게 만드는 시대에 접어들었다. 각계에서 AI로 만든 가짜 이미지들에 대해 경각심을 일깨우는 가운데 CNN방송은 9일(현지 시각) 조작된 이미지 퇴치에 앞장서고 있는 테크놀로지 기업들의 활동상을 소개했다.

지난달 펜타곤 인근에서 폭발이 발생한 이미지가 소셜 미디어에 퍼지면서 공포가 번지고 주식시장에서는 투매 현상이 벌어졌다. AI에 의해 조작된 것이 분명한 이 이미지는 이후 당국에 의해 가짜 이미지임이 드러났다.

그러나 트루픽(Truepic)의 CEO인 제프리 맥그리거는 “이는 향후 비슷한 사건들에 비하면 빙산의 일각”이라고 말했다. 그는 “이제 훨씬 더 많은 AI 생성 콘텐츠가 소셜 미디어에 등장하게 될 것인데, 우리는 아직 이에 대한 준비가 되어 있지 않다”고 주장했다.

트루픽의 경우 매개물의 생성 시점에 그 진위를 식별할 수 있는 ‘트루픽 렌즈(Truepic Lens)라는 툴을 제공한다. 이 애플리케이션은 해당 매개물의 생성 날짜, 시간, 위치 및 제작 도구 등의 자료를 포착해서 그 진위를 판단한 다음 디지털 서명을 부여한다.

마이크로소프트가 투자한 트루픽은 달리2(Dall-E)나 미드저니(Midjourney) 같은 AI 기반 이미지 생성 도구가 출시되기 몇 년 전인 2015년에 이미 설립되어 사업을 진행 중이다.

CEO인 맥그리거는 NGO에서부터 언론사, 보험 청구의 정당성을 가리려는 보험 회사에 이르기까지 '이미지를 기반으로 중요 결정을 내려야 하는 주체들'이 큰 관심을 보이고 있다고 말했다.

“조작 가능성이 존재한다면 가짜는 어디에나 있을 수 있습니다.”

맥그리거는 이렇게 강조했다.

“AI의 생성물이 품질과 접근성 면에서 분수령에 도달했기 때문에 이제 우리는 온라인에서 더 이상 무엇이 현실인지를 구분하기 어려운 세상에 접어든 것입니다.”

트루픽과 같은 테크놀로지 기업들이 수년 동안 사이버 상의 거짓 정보와 싸우기 위해 노력하는 사이 사용자 프롬프트에 응답하며 매혹적인 이미지와 텍스트를 빠르게 내놓는 새로운 AI 도구의 등장으로 이러한 노력이 더욱 빛을 발하고 있다.

최근 몇 달 사이만 해도 흰색 패딩을 걸친 프란치스코 교황이나 도널드 트럼프 전 대통령이 경찰과 아수라장 속에 체포되는 가짜 이미지들이 온라인에서 퍼져 나가기도 했다.

이에 일부 국회의원들은 이제 테크 기업들이 이 문제 해결을 위해 발 벗고 나설 것을 촉구하고 있다.

유럽연합 집행위원회 부의장인 베라 주로바는 최근 구글, 메타, 마이크로소프트, 틱톡 등의 기업이 가입된 ‘허위정보에 관한 EU 실천강령(EU Code of Practice on Disinformation)’ 서명 주체들에게 “거짓 콘텐츠를 식별하고 이를 명확하게 표시할 수 있는 기술을 마련할 것”을 촉구했다.

생성형 AI 기술 제품을 판매하는 일부 기업을 포함해 더 많은 스타트업들과 빅테크 기업들이 이미지 또는 동영상이 AI로 제작되었는지 여부를 식별할 수 있는 표준과 솔루션 마련에 나서고 있다. 리얼리티 디펜더(Reality Defender)도 이런 노력에 앞장서는 기업 중 하나이다. 이 기업은 무엇이 사실이고 무엇이 거짓인지를 식별하는 능력을 사업의 핵심 아이템으로 삼고 있다.

하지만 AI 기술이 인간의 예측보다 훨씬 빠르게 발전함에 따라 이러한 솔루션들이 당면 문제를 완전히 해결할 수 있을지는 확실하지 않다.

달리2(Dall-E)와 챗GPT의 개발사인 오픈AI조차도 올해 초 이미지는 고사하고 AI가 생성한 텍스트의 진위를 식별하는 자체 노력이 “불완전하다”고 인정하고 “곧이곧대로 받아들여서는 안 된다”고 경고한 바가 있다.

“조작과 가짜 이미지를 완전히 없앨 수는 없고, 어떻게 정도를 줄일 수 있느냐로 해법이 모색되어야 할 겁니다.”

디지털 포렌식 전문가이자 캘리포니아 대학교 버클리 캠퍼스의 교수인 핸리 파리드는 CNN과의 인터뷰에서 이렇게 주장했다.

“현재의 접근 방식을 완전한 실패라고는 볼 수 없지만, 앞으로도 해야 할 일이 많다고 생각합니다.”

파리드 교수는 이와 함께 “적어도 10대가 부모 지하실에 숨어서 가짜 이미지를 만들어 선거판을 뒤흔들어 놓거나 하루아침에 주식시장에서 5000억 달러가 오르내리락 하도록 만들 수는 없도록 해야 한다”고 경고했다.

트럼프 전 대통령의 체포 장면을 연출한 가짜 이미지 [사진 = ATI]
트럼프 전 대통령의 체포 장면을 연출한 가짜 이미지 [사진 = ATI]

‘군비 경쟁’

기업들은 당면 문제를 해결하기 위해 주로 두 가지 경로로 접근하고 있다.

하나는 AI에 의해 생성된 가짜 이미지를 식별하는 프로그램 개발이고, 다른 하나는 일종의 디지털 서명 개념을 도입해 이미지에 진위 여부를 표시하는 방식이다.

리얼리티 디펜더(Reality Defender)와 하이브 모더레이션(Hive Moderation)은 전자(前者)에 초점을 맞춰 솔루션을 개발 중이다.

이미지 진위를 검증받고자 하는 고객은 해당 기업들의 플랫폼에 접속해 이미지를 업로드하면 확보된 대량의 데이터를 기반으로 이 이미지가 실제인지를 백분율로 즉시 분석을 받을 수 있다.

‘생성형 AI’가 유행하기 전부터 실리콘 밸리 벤처 투자 프로그램인 ‘Y Combinator’를 받고 출시된 ‘리얼리티 디펜더’는 “딥페이크(deepfake) 및 생성형 콘텐츠 지문(指紋)에 대한 독점 기술”을 사용해 AI 생성 비디오, 오디오 및 이미지를 찾아낸다.

이 기업은 시연을 통해 ‘리얼리티 디펜더’ 툴이 톰 크루즈의 딥페이크 이미지를 53%까지 ‘의심스러운 이미지’로 지정해 사용자에게 경고해주었다고 밝혔다.

가짜 이미지 식별이 큰 이슈로 떠오르면서 이 분야가 기업의 수익성 창출에 어떤 식으로 기여할 수 있는지도 관심의 대상이 되고 있다. 관련 서비스들은 사용이 제한된 무료 데모 버전과 유료 고객 서비스로 구분돼서 제공된다.

하이브 모더레이션(Hive Moderation)은 이미지 1,000개당 1.5달러를 받고, 연간 계약자에게는 할인을 제공하고 있다고 밝혔다.

그리고 리얼리티 디펜더(Realty Defender)는 “우리 팀의 전문 지식과 지원이 필요한 맞춤형 서비스”인지에 따라 가격이 달라질 수 있다고 말했다.

“매월 가짜 이미지로 인한 위험이 두 배로 증가하고 있습니다.”

리얼리티 디펜더의 CEO 벤 콜만은 CNN과의 인터뷰에서 이렇게 주장했다.

“누구나가 조작에 가담할 수 있습니다. 컴퓨터공학 박사 학위도 필요 없고, 아마존 서버를 가동할 필요도 없습니다. 뿐만 아니라 랜섬웨어를 코딩할 정도의 컴퓨터 지식도 필요 없습니다. 그저 인터넷에서 ‘가짜 얼굴 생성기’만 검색할 수 있으면 누구나 만들어낼 수 있습니다.”

하이브 모더레이션의 CEO인 케빈 구오는 이런 환경을 “군비 경쟁”에 빗댔다.

“가짜 콘텐츠를 만드는 새로운 방식의 출현에 항상 긴장하고 있어야 합니다. 그래야 이를 이해하고 데이터 세트에 추가한 다음 향후 대처 방식을 마련할 수 있습니다.”

그는 이렇게 말했다.

“그래도 아직까지는 비율 면에서 많다고 할 수는 없지만 향후 몇 년 사이 엄청난 변화가 일어날 것이라고 생각합니다.”

교황이 흰색 패딩을 입은 것처럼 조작한 가짜 이미지 [사진 = ATI]
교황이 흰색 패딩을 입은 것처럼 조작한 가짜 이미지 [사진 = ATI]

예방적 접근

위의 해법들과는 별도의 다른 예방적 접근 방식으로 일부 빅테크 기업들은 일종의 워터마크(watermark)를 도입해 매개물이 처음 생성될 때 실제인지 또는 AI로 생성된 가짜인지를 인증하는 방식을 연구 중이다.

이러한 노력은 지금까지 콘텐츠 출처 및 진위 여부를 확인하기 위한 연합체인 ‘C2PA(Coalition for Content Provenance and Authenticity)’에 의해 주도되고 있다.

C2PA는 디지털 매개물의 출처와 히스토리를 인증하는 기술 표준을 만들기 위해 2021년에 설립되었다. 이는 어도비(Adobe)가 주도하는 ‘CAI(Content Authenticity Initiative)’와 디지털 뉴스의 허위 정보 퇴치에 중점을 둔 Microsoft 및 BBC 주도의 ‘Project Origin’의 노력을 결합해 탄생했다.

C2PA에 가입된 다른 기업들로는 트루픽(Truepic), 인텔, 소니 등을 꼽을 수 있다.

C2PA의 지침에 따라 CAI는 기업이 콘텐츠 자격 증명 또는 이미지에 대한 정보가 포함된 메타데이터(metadata)를 생성할 수 있는 오픈소스 도구를 만든다.

CAI 웹사이트에 따르면 이를 통해 크리에이터가 이미지를 만든 방법에 대한 세부 정보를 투명하게 공유할 수 있으며, 이런 식으로 최종 사용자는 이미지가 누가, 무엇을, 어떻게 변경되었는지에 대한 히스토리에 액세스한 다음 해당 이미지의 진위 여부를 스스로 판단할 수 있다.

“Adobe는 이와 관련된 수익 구조를 가지고 있지 않습니다. 우리는 그저 분명한 필요성을 인식하고 있기 때문에 이 일에 앞장서는 것 뿐입니다.”

CAI의 수석 이사인 앤디 파슨스는 CNN과의 인터뷰에서 이렇게 주장했다. 

“가짜 뉴스 및 허위 정보에 대한 근본적인 대책이라고 생각합니다.”

많은 기업들이 이미 C2PA 표준과 CAI 도구를 자신들의 애플리케이션에 통합하고 있다. 최근 포토샵(Photoshop)에 추가된 AI 이미지 생성 도구인 어도비 파이어플라이(Firefly)는 콘텐츠 보증(Content Credentials) 기술을 통해 이 표준을 따른다.

그리고 마이크로소프트도 ‘빙 이미지 생성기(Bing Image Creator)’와 ‘마이크로소프트 디자이너(Microsoft Designer)’로 만들어진 AI 생성물에 앞으로 몇 달 안에 암호화 서명 작업을 수행할 것이라고 밝혔다.

여기에 구글 등의 기업은 이 두 가지 접근 방식을 절충한 해법을 채택할 것으로 보인다.

지난 5월 구글은 ‘어바웃 디스 이미지(About this image)’라는 도구를 출시했다. 이 도구는 구글 사이트에서 찾은 이미지의 최초 식별 시기, 처음 표시된 위치 및 온라인에서 찾을 수 있는 위치를 확인할 수 있는 기능을 사용자에게 제공한다.

구글은 나아가 원본 파일에 정본 인식 표식을 포함해 자사가 생성한 모든 AI 이미지가 다른 웹사이트나 플랫폼에서 발견될 경우 그 이력을 제공할 것이라고 밝혔다.

테크 기업들이 AI 생성 이미지 진위 여부 문제를 놓고 고심하는 가운데 해당 분야 전문가들은 해당 문제는 궁극적으로 정부와 협력하에 진행되어야 큰 효과를 발휘할 것이라고 지적한다.

“전 세계적 빅테크 기업들의 적극적 협력이 필요할 것입니다. 그래야 가짜 정보 생성 세력들이 사태를 더 심각하게 받아들이고 진짜로만 홍보하기 시작할 것입니다.”

파리드 교수는 이렇게 말했다. 

“여기에 우리가 이야기하지 않은 공적 규제 부분이 남아 있습니다. 그리고 우리가 아직 이야기하지 않은 교육적인 부분도 있습니다.”

파슨스 이사도 이에 동의했다. 그는 “폭넓은 해법을 위해서는 단일 기업이나 단일 정부 또는 단일 학계의 노력만으로는 턱없이 부족하다”고 강조했다.

“우리는 모두가 참여해야 합니다.”

[위키리크스한국 = 유 진 기자]

yoojin@wikileaks-kr.org


  • 서울특별시 마포구 마포대로 127, 1001호 (공덕동, 풍림빌딩)
  • 대표전화 : 02-702-2677
  • 팩스 : 02-702-1677
  • 청소년보호책임자 : 소정원
  • 법인명 : 위키리크스한국 주식회사
  • 제호 : 위키리크스한국
  • 등록번호 : 서울 아 04701
  • 등록일 : 2013-07-18
  • 발행일 : 2013-07-18
  • 발행인 : 박정규
  • 편집인 : 박찬흥
  • 위키리크스한국은 자체 기사윤리 심의 전문위원제를 운영합니다.
  • 기사윤리 심의 : 박지훈 변호사
  • 위키리크스한국 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재와 복사, 배포 등을 금합니다.
  • Copyright © 2024 위키리크스한국. All rights reserved.
  • [위키리크스한국 보도원칙] 본 매체는 독자와 취재원 등 뉴스 이용자의 권리 보장을 위해 반론이나 정정보도, 추후보도를 요청할 수 있는 창구를 열어두고 있음을 알립니다.
    고충처리 : 02-702-2677 | 메일 : laputa813@wikileaks-kr.org
ND소프트