[AI 프리즘] 전세계 뒤흔드는 인공지능, 새해 가짜뉴스 규제 입법에 이목 집중
[AI 프리즘] 전세계 뒤흔드는 인공지능, 새해 가짜뉴스 규제 입법에 이목 집중
  • 최정미 기자
  • 승인 2024.01.02 05:35
  • 수정 2024.01.02 05:35
  • 댓글 0
이 기사를 공유합니다

AI(인공지능) 기술 CG. [사진=연합뉴스]
AI(인공지능) 기술 CG. [사진=연합뉴스]

2023년은 AI 돌풍의 해였다. 올 초 챗GPT4 출시에서부터 12월 유럽연합의 AI법 합의까지 인공지능 분야는 숨 쉴 틈 없이 달려왔다. AI의 발전으로 세계는 흥분했지만, 동시에 차별, 감시, 착취, 가짜뉴스 등의 우려도 낳고 있다. 이러한 위험을 막기 위해 윤리와 혁신이 함께 가야한다는 목소리가 커지고 있다.

새해 AI가 어떤 행보를 보일 것인지 관심을 끄는 가운데, 매체 미디엄(Medium)은 '규제의 해'가 될 것으로 예측했다.

2023년에는 여러 리스크 기반의 법제의 틀이 제시됐다. 그러나 이 초안적인 것들을 어떻게 통합할지 결정하는 것은 각각의 국가에 달려있는 문제다. 또한 오픈소스 그룹과 스타트업 기업 들이 어떻게 규제에 맞출지가 여전히 확실하지 않다.

그리고 정책 논의 과정에서 빅테크 기업들의 로비에 말려들지 않아야 하는 문제도 있다. 그나마 많은 규제 당국들이 정보 공유 및 책임 증진의 중요성을 강조했고, 최선의 공통 합의를 이끌 가능성을 보이고 있다.

2023년 12월 초 유럽연합은 AI법안에 합의했다. 이제 각 회원국들이 자국의 법제 하에서 AI법을 어떻게 시행할지가 관건이다. 유럽연합의 AI법의 발효는 2025년부터가 될 예정이다. 타겟 광고 금지, 더 안전한 온라인 환경을 위한 투명성 및 신뢰성 개산에 대한 디지털서비스법은 2023년에 발효됐다.

2024년은 이러한 법들을 유럽연합 내에서 어떻게 효과적으로 인간 중심의 가치를 끌어올리고 책임을 높일지를 정하는 해가 될 것으로 예상된다. 유럽연합의 결정들에 그 밖에 있는 국가들이 영향을 받고 그에 맞는 정책들을 만들 가능성이 있다.

미국은 지난 10월 말, 백악관이 ‘안전하고 믿을 수 있는 AI 행정명령(Executive Order on Safe, Secure, and Trustworthy AI)’을 내렸다. 개인정보 및 평등을 보호하기 위한 새로운 기준을 만드는 이 행정명령은 15개의 대표 기업들이 자발적인 규제 의지 발언을 한 것을 바탕으로 했다. 

2024년은 연방 기관들이, 알고리즘 차별, 노동권, 감시와 관련해 문제의 심각성이 큰 사안들에 대해 다룰 것으로 예측된다. 미 연방거래위원회는 2023년 한 해 동안 AI와 관련한 소비자들의 우려를 해결하기 위해 분투했는데, 최근에는 미국의 약국 체인 브랜드 라이드 에이드(Rite Aid)에 5년 동안 안면인식 기술 사용을 금지시켰다.

또한 지난 7월부터 데이터 무단 이용 관련 오픈AI에 대한 조사를 유보하고 있는데, 이에 대한 앞으로의 계획안도 나올 것으로 보인다. 또한 미 대선을 앞두고 미국에서는 2024년이 가짜뉴스 단속이 그 어느 때보다 시급한 때가 될 것이다. 

중남미 지역에서는 브라질이 AI 규제에 앞장서고 있다. 브라질은 2021년 ‘AI 전략(AI Strategy)’을 출범하고, ai 개발 및 적용에 관한 원칙을 확립하기 위한 법안을 제의했다. 콜롬비아와 아르헨티나도 윤리적 AI를 위한 프레임워크를 만들었다. 

그러나 2024년에는 중남미 국가들이 국제적 수준의 논의로 더 들어가야 할 필요가 있다고 매체 미디엄은 짚었다. 이들 지역에서의 통합적인 규제안들이 인권에 미치는 큰 영향에 대한 이해 없이 권위주의적인 규제를 장려하는 것이 될 수 있다는 경고도 있다. 엘살바도르, 니카라과, 베네수엘라 등의 국가에서 소셜네트워크 플랫폼들을 검열하고 표현의 자유를 억압하는 것을 미디엄은 그 예로 들었다.

아프리카 지역에서는, 모리셔스와 이집트가 국가 AI 전략들을 수립했고, 케냐는 국가 경쟁력을 높이기 위해 AI 이용에 대한 로드맵을 만들었다. 르완다와 가나 등 그 밖의 국가들도 비슷한 전략을 세우며 사회경제적 개발에 AI를 이용하려고 하고 있다. 

그러나 중남미 지역과 마찬가지로 아프리카 국가들도 국제적 수준의 논의가 필요하다. 아프리카는 데이터 권리 침해 등 AI 산업의 착취에 노출돼 있으며, 현지어 기반의 AI 인프라 및 접근성이 부족해 서방 국가와의 발전 격차가 커지고 있어, 국제 수준의 경쟁력을 갖추기 위해서는 관련 문제들을 해결해야 한다. 

한편 G7과 G20 둘다 회원국들이 AI 규제에 윤리적인 원칙을 통합하는 것을 우선으로 하고 있다. 지난 9월 G20 뉴델리 정상 선언은, 책임 있는 AI의 지속 가능한 개발 목표를 위해 혁신 친화적인 규제와 통치를 추구함을 발표했다.

10월에는 G7 정상들이 첨단 AI 개발 기관들에 대한 국제 지도 원칙과 행동 강령을 공개했다.

2024년에는 G20 회원국들이 AI 이용 공개 등 자국의 정책들을 실질적인 시행으로 옮길 것으로 예측되고 있다. G7 회원국들은 이미 가이드라인을 자국의 정책에 가장 잘 통합하는 방법에 대해 공공의 의견을 구하기 시작했다.

민간 기업들에 대한 방향은 다음과 같이 제시됐다. 

테크 기업들은 AI 설계 과정의 모든 부분에 윤리적 기준을 통합시키며, 급속도로 바뀌는 규제에 선행해야 할 것이다. 그러나 새로운 AI 응용 분야들이 생겨나면서 다른 산업들도 AI의 윤리적 이용에 대한 책임을 져야 한다. 

책임 있는 AI(Responsible AI, RAI)는 2023년 테크계에서 가장 큰 화두에 오른 말 중 하나가 됐다. 이는 테크 기업들이 AI를 개발하고 이용할 때 다뤄야 할 윤리적이고 규제적인 측면을 말하는 것이다. 

AI를 개발하거나 이용할 기업들은 인간 중심의 원칙에 입각한 자체 AI 정책을 세워야 한다. 미국에서는 이들 기업들이 핵심 가이드라인으로 참고하도록 2023년 1월에 미국 표준기술연구소가 AI 위기관리 프레임워크(AI Risk Management Framework)를 마련했다. 

많은 기업들이 이미 RAI에 많은 투자를 하기 시작했지만, 메타처럼 AI 윤리 부서를 해체한 곳도 있다. 이에 윤리적 AI 개발에 대한 대중의 압박은 더욱 커질 것이며, RAI 역시 성장할 것이다.

AI의 보급이 확산됨에 따라 2024년에는 이와 관련한 노동권 문제가 더욱 커질 것이다. 기업들이 노동 현장에 AI를 적용시켜감에 따라, 감시, 착취, 일자리 대체에서 노동자들을 보호하는 것이 계속 논제가 될 것이다.

예를 들어, 자동화에 사람들이 대체되는 문제와 함께 인력 관리에 AI를 사용함으로써 피해를 보는 사람들이 생길 수 있다. 아마존은 모니터링 때문에 직원들이 생산성의 압박에 놓이게 됐으며, 물류 창고에서의 산재 발생률이 다른 회사들에 비해 거의 두 배인 것으로 나타났다. 

생성형 AI와 관련한 저작권 문제 또한 2023년 큰 화두였다. 오픈AI의 텍스트 기반 이미지 생성 AI 모델인 스테이블 디퓨전(Stable Diffusion)이 소송을 당한 것과 미국 작가조합의 파업은 작가들의 창작 권리를 촉구하는 대표적인 움직임이었다. 미국 작가조합의 승리는 창작자들의 생계를 보호하기 위한 중대한 전례를 만들었다는 데에 의의가 있다.

AI가 환경에 미치는 영향 또한 2024년에도 우선 과제가 될 것이다. 

대규모 언어모델(Large language model, LLM)들이 한 차례 훈련을 하면서 발생시키는 이산화탄소가 거의 290톤까지 달한다. 훈련뿐 아니라, AI의 미세조정, 데이터 저장, 유지관리에 있어서도 막대한 에너지가 소비된다. 

현재의 생성형 AI 모델들은 프로그래밍된 수십억 개의 매개변수를 처리하면서 미세조정을 한 차례 할 때마다 탄소 배출이 늘어나며, 데이터 센터 냉각을 위해 쓰이는 물의 양도 엄청나다. 챗GPT3 훈련의 경우 약 70만 리터의 물이 사용됐다고 한다. 

또한 기업들이 AI 훈련에 쓰는 에너지에 대한 데이터가 제대로 공개되고 있지 않아 환경에 미치는 영향을 정확히 파악하는 데 어려움이 있다. 따라서 이에 대한 기업들의 투명성이 요구된다. 또한 지금보다 더 작은 규모의 모델들을 이용하고 더 효율적인 훈련 기술을 이용하는 등의 전환이 이뤄져야 한다.

개인들 역시 스스로가 감시자가 돼야 한다는 것을 미디엄은 시사했다. 따라서 테크에 대한 이해도가 AI의 위험성을 인지하는 데 중요한 역할을 할 것이다.

그 어느 때보다 가짜정보에 대한 위험이 큰 이 시기에 개인들은 온라인 콘텐츠에서의 AI의 한계가 드러나는 점을 포착할 수 있어야 한다. 이는 이미지 속에서 왜곡된 글자나 손모양 등을 통해 파악할 수 있다. 이러한 이미지들의 생성원을 확인하는 것도 중요하다. 이러한 문제들에 대한 이해도를 높이는 것이 개인 차원에서 가짜 콘텐츠의 확산을 막는 데 도움이 될 것이다.

한편, AI 챗봇이 웹 검색을 돕고 정서적 위안을 주고 있는 가운데, 개인들은 이러한 기술의 단점 역시 인지하고 있어야 한다. 가짜 뉴스 확산을 피하기 위해 모든 문답은 진위성 여부를 확인해야 하며, AI는 감정이 없고 유해성이 있을 수 있으므로, 챗봇을 통해 정서적 위안을 받으려고 할 때는 경계해야 한다.

위에 언급된 여러 우려점에도 불구하고 2024년은 AI와 관련된 정부 및 기업, 개인, 국제적 차원의 논의가 더 성숙해질 것으로 전망되고 있다. 인권과 민주주의 가치를 중심에 놓으면 AI는 인류에게 도움이 될 것이라는 평가다.  

[위키리크스한국 = 최정미 기자]

prtjami@wikileaks-kr.org


  • 서울특별시 마포구 마포대로 127, 1001호 (공덕동, 풍림빌딩)
  • 대표전화 : 02-702-2677
  • 팩스 : 02-702-1677
  • 청소년보호책임자 : 소정원
  • 법인명 : 위키리크스한국 주식회사
  • 제호 : 위키리크스한국
  • 등록번호 : 서울 아 04701
  • 등록일 : 2013-07-18
  • 발행일 : 2013-07-18
  • 발행인 : 박정규
  • 편집인 : 박찬흥
  • 위키리크스한국은 자체 기사윤리 심의 전문위원제를 운영합니다.
  • 기사윤리 심의 : 박지훈 변호사
  • 위키리크스한국 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재와 복사, 배포 등을 금합니다.
  • Copyright © 2024 위키리크스한국. All rights reserved.
  • [위키리크스한국 보도원칙] 본 매체는 독자와 취재원 등 뉴스 이용자의 권리 보장을 위해 반론이나 정정보도, 추후보도를 요청할 수 있는 창구를 열어두고 있음을 알립니다.
    고충처리 : 02-702-2677 | 메일 : laputa813@wikileaks-kr.org
ND소프트