[인공지능 줌인] 자율AI 에이전트 시대...AI 활용 콘텐츠로 발생하는 사기, 개인정보 침해 방지 '과제'로 대두
[인공지능 줌인] 자율AI 에이전트 시대...AI 활용 콘텐츠로 발생하는 사기, 개인정보 침해 방지 '과제'로 대두
  • 유 진 기자
  • 승인 2024.01.12 05:39
  • 수정 2024.01.12 11:15
  • 댓글 0
이 기사를 공유합니다

[사진=더컨버세이션]
AI의 작동 원리를 더 많이 이해할수록 AI를 사용하고 비판할 수 있는 힘이 더 커진다고 전문가들은 말하고 있다. [사진=더컨버세이션]

"인공지능(AI)을 통제하려면 해당 기술을 더 잘 이해해야 할 것이다."

지난해는 AI에 대한 지나친 홍보의 해였다고 디지털 전문가들은 말하고 있다. 이는 AI가 세상을 구할 것이라는 얘기든 파괴할 것이라는 얘기든, 언젠가는 AI가 어떻게 될지에 대한 비전이 현실을 압도하는 것처럼 느껴졌을 것이다.

미래의 해악을 예측하는 것은 기술의 윤리적 부채를 극복하는 데 중요하지만, 과대광고에 휩쓸리면 명확한 선택에 의해 형성될 수 있는 기술보다는 마술처럼 보이는 AI에 대한 비전이 만들어질 위험이 있다.

그러나 통제권을 가지려면 해당 기술을 더 잘 이해해야 할 것이라고 전문가들은 조언한다.

지난해 주요 AI 논쟁 중 하나는 교육 분야에서 챗GPT와 유사한 챗봇의 역할에 관한 것이었다.

작년 이맘 때만 해도 대부분의 관련 헤드라인은 학생들이 이 기술을 이용해 부정행위를 할 수 있는지, 그리고 이를 막기 위한 교육자들이 어떻게 애쓰고 있는지에 초점을 맞췄는데, 이는 종종 득보다 실이 많았다고 평가됐다.

하지만 해가 거듭될수록 학생들에게 AI에 대해 가르치지 않으면 불이익을 받을 수 있다는 인식이 확산됐고, 많은 학교가 금지 조치를 철회했다.

AI를 모든 것의 중심에 두는 방향으로 교육을 개편해야 한다고 생각하지는 않지만, 학생들이 AI가 어떻게 작동하는지 배우지 않으면 그 한계를 이해하지 못하기 때문에 AI를 유용하고 적절하게 사용하는 방법과 그렇지 않은 방법을 이해하지 못할 것이라고 전문가들은 경고했다.

이는 학생에게만 해당되는 이야기가 아니라, 사람들이 AI의 작동 원리를 더 많이 이해할수록 AI를 사용하고 비판할 수 있는 권한이 더 커진다는 것이다.

미시간 주립대 안자나 수살라 교수는 “내 예측은 학습에 대한 압박이 있을 것”이라고 말했다.

1966년, 엘리자 챗봇을 만든 조셉 바이젠바움은 “기계는 가장 경험이 많은 관찰자조차도 현혹시키기에 충분하지만, 이해를 유도할 수 있을 정도로 평이한 언어로 기계의 내부 작동을 설명하면 그 마법은 사라진다"고 말했다.

생성형 인공지능의 문제점은 엘리자의 매우 기본적인 패턴 매칭 및 치환 방법론과 달리, 인공지능의 마법을 무너뜨릴 수 있을 만큼 '충분히 쉬운' 언어를 찾는 것이 훨씬 더 어렵다는 것이다.

수살라 교수는 ”이것이 가능하다고 생각하고, 더 많은 AI 기술 전문가를 채용하기 위해 서두르고 있는 대학들이 AI 윤리학자를 채용하는 데에도 많은 노력을 기울였으면 좋겠다“며 ”언론 매체들이 과대광고를 차단하는 데 도움을 주고, 모든 사람이 자신의 AI 기술 사용과 그 결과에 대해 성찰하는 것이 중요하다“고 조언헸다.

1970년, 인공지능의 선구자이자 신경망 회의론자였던 마빈 민스키는 "3년에서 8년 안에 평균적인 인간의 지능을 가진 기계가 등장할 것"이라고 말했다.

인공지능이 인간의 지능을 능가하는 순간, 즉 특이점이 오면 민스키는 적어도 10배 이상 차이가 난다고 해도 과언이 아닌 반면, 전문가들은 AI에 대한 예측은 위험하다고 주장했다. 

인공지능 CG. [사진=연합뉴스]
인공지능 CG. [사진=연합뉴스]

하지만 1년 후를 예측하는 것은 그리 위험해 보이지는 않다. 올해 AI에는 어떤 변화가 있을까.

첫째, 본격적인 경쟁이 시작될 것이다. AI는 민스키의 전성기 시절부터 꾸준히 발전해 왔지만, 2022년 챗GPT가 공개되면서 수익과 명예, 글로벌 패권을 차지하기 위한 전면적인 경쟁이 시작됐다.

가장 큰 기술적 문제는 AI 엔지니어들이 현재 딥러닝의 아킬레스건이라고 할 수 있는 연역적 논리와 같은 일반화된 하드 추론 문제를 얼마나 빨리, 그리고 얼마나 철저하게 해결할 수 있느냐는 것이다.

기존의 신경망 알고리즘을 빠르게 조정하는 것으로 충분할까 아니면 신경과학자 게리 마커스가 제안한 것처럼 근본적으로 다른 접근 방식이 필요할까.

토야마 교수는 ”수많은 AI 전문가들이 이 문제를 연구하고 있으므로 2024년에는 어느 정도 진전이 있을 것으로 예상된다“고 말했다.

그는 이어 ”한편, 새로운 AI 애플리케이션은 새로운 문제도 야기할 가능성이 높다“며 ”곧 AI 챗봇과 어시스턴트가 서로 대화하고, 사용자를 대신해 사용자 몰래 전체 대화를 나누는 모습을 보게 될지도 모른다“고 덧붙였다.

그 중 일부는 코믹하게, 비극적으로, 또는 둘 다 엉망이 될 것이라고 전문가들은 경고했다. 딥페이크, 인공지능으로 생성된 이미지와 동영상은 초기 규제에도 불구하고 만연할 것이며, 개인과 민주주의에 더 많은 해악을 끼칠 것이라고 예측됐다.

챗 GPT가 공개된 지 1년이 지난 지금, 생성형 AI 모델의 발전 속도는 놀랍도록 빨라지고 있다.

지난해 챗 GPT가 텍스트 프롬프트를 통해 텍스트 출력을 생성했던 것과는 달리, 새로운 세대의 생성형 AI 모델은 멀티모달로 학습되고 있다.

이는 텍스트 소스 뿐만 아니라 유튜브 동영상, 스포티파이(Spotify) 노래, 그리고 다른 오디오와 시각 정보에서도 데이터를 활용한다는 것을 의미하고 있다.

이러한 차세대 멀티모달 대규모 언어 모델(LLM)을 활용하면 텍스트 입력만으로도 이미지, 텍스트, 오디오, 비디오를 생성할 수 있다.

기업들은 스마트폰을 비롯한 다양한 하드웨어 및 애플리케이션에 배포할 수 있는 경량 LLM을 개발하기 위해 경쟁하고 있다. 이러한 발전은 자율 AI 에이전트의 시대를 열어줄 수 있다.

이러한 고급 AI 기능은 비즈니스와 의료 분야를 비롯한 다양한 분야에서 혁신의 기회를 제공하고 있다.

그러나 이러한 기술이 사람이 생성한 콘텐츠와 구분하기 어려운 도전과제를 제기할 뿐만 아니라, 새로운 유형의 알고리즘 피해를 초래할 우려가 있다고 전문가들은 경고했다.

미시간 주립대학교 안자나 수살라 교수는 ”생성형 AI에 의해 만들어진 합성 콘텐츠가 널리 퍼지면서, 악의적인 개인 및 기관이 가짜 신원을 만들고 대규모의 잘못된 정보를 조성할 수 있는 상황이 발생할 수 있다“며 ”알고리즘 필터와 추천 엔진이 악용돼 AI 생성 콘텐츠의 홍수가 검색 엔진, 소셜 미디어 플랫폼, 디지털 서비스에서 정보 검증, 정보 리터러시, 우연성과 같은 중요한 기능을 압도할 우려가 있다“고 말했다.

미국 연방거래위원회(FTC)는 AI를 활용한 콘텐츠 제작의 증가로 발생하는 사기, 속임수, 개인정보 침해 등에 대해 경고하고 있다.

유튜브와 같은 디지털 플랫폼은 AI 생성 콘텐츠의 공개에 대한 정책 가이드라인을 마련했지만, 개인정보 보호를 위해 노력하는 의회와 FTC 같은 기관에서 알고리즘 피해에 대해 더욱 심층적으로 조사할 필요가 있다고 전문가들은 설명했다.

최근 제안된 법안은 알고리즘 리터러시를 디지털 리터러시의 핵심 구성 요소로 만들어, AI가 사회와 더불어 작동하는 맥락에 중점을 둘 것을 목표로 하고 있다.

AI전문가들은 인공지능이 우리의 일상과 더불어 녹아들면서, 알고리즘을 기술의 일부가 아닌 사람, 프로세스, 사회의 일부로 생각하는 시각이 필요하다고 말했다.

[위키리크스한국=유 진 기자]

yoojin@wikileaks-kr.org


  • 서울특별시 마포구 마포대로 127, 1001호 (공덕동, 풍림빌딩)
  • 대표전화 : 02-702-2677
  • 팩스 : 02-702-1677
  • 청소년보호책임자 : 소정원
  • 법인명 : 위키리크스한국 주식회사
  • 제호 : 위키리크스한국
  • 등록번호 : 서울 아 04701
  • 등록일 : 2013-07-18
  • 발행일 : 2013-07-18
  • 발행인 : 박정규
  • 편집인 : 박찬흥
  • 위키리크스한국은 자체 기사윤리 심의 전문위원제를 운영합니다.
  • 기사윤리 심의 : 박지훈 변호사
  • 위키리크스한국 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재와 복사, 배포 등을 금합니다.
  • Copyright © 2024 위키리크스한국. All rights reserved.
  • [위키리크스한국 보도원칙] 본 매체는 독자와 취재원 등 뉴스 이용자의 권리 보장을 위해 반론이나 정정보도, 추후보도를 요청할 수 있는 창구를 열어두고 있음을 알립니다.
    고충처리 : 02-702-2677 | 메일 : laputa813@wikileaks-kr.org
ND소프트