[AI 줌인] 트럼프가 경찰에 체포되다?... 쏟아지는 'AI 가짜 뉴스' IT전문가들이 말하는 AI 규제의 필요성과 딜레마
[AI 줌인] 트럼프가 경찰에 체포되다?... 쏟아지는 'AI 가짜 뉴스' IT전문가들이 말하는 AI 규제의 필요성과 딜레마
  • 유 진 기자
  • 승인 2023.04.08 07:09
  • 수정 2023.04.08 13:40
  • 댓글 0
이 기사를 공유합니다

딥페이크 기술을 통해 우크라이나 대통령 볼로디미르 젤렌스키의 얼굴을 생성해 허위 정보를 쉽게 만들어 내는 것을 볼 수 있다. [사진=더 컨버세이션]
딥페이크 기술을 통해 우크라이나 대통령 볼로디미르 젤렌스키의 얼굴을 생성해 허위 정보를 쉽게 만들어 내는 등 다양한 인공지능 문제로 인해 AI 규제 도입이 시급하다는 전문가들의 목소리가 커지고 있는 상황이다.  [사진=더 컨버세이션]

최근 허구의 텍스트와 이미지를 생성하는 차세대 인공 지능 시스템의 능력은 사기 및 잘못된 정보에 대한 경보를 울리고 있는 가운데 AI 규제 도입이 시급하다는 목소리가 커지고 있다.

도널드 트럼프가 뉴욕시 경찰에 체포된 가짜 사진부터 살아 있는 컴퓨터 과학자를 비극적으로 사망한 것으로 묘사하는 챗봇에 이르기까지, 인공 지능 범죄가 계속 늘어나고 있다.

인공지능 연구자 및 업계 인사들로 구성된 그룹은 지난달 최신 인공지능 기술에 대한 추가 교육을 중단하거나, 그렇지 않을 경우 ‘모라토리엄을 부과할 것'을 촉구했다.

달리(Dall-E), 미드저니(Midjourney)와 같은 이미지 생성기와 챗GPT(chatGPT), 바드(Bard)와 같은 텍스트 생성기는 현재 수백만 명의 사람들이 사용할 수 있으며, 기술 지식이 없어도 사용할 수 있다.

기술 기업들이 이러한 AI 시스템을 출시하고 대중을 대상으로 테스트하면서 광범위한 피해 가능성을 고려할 때, 정책 입안자들은 새로운 기술을 규제할지에 대한 여부와 방법을 결정해야 하는 과제에 직면하고 있다.

이와 관련 호주 매체 ‘더 컨버세이션(The Conversation)’은 AI 규제가 왜 이렇게까지 어려운지, 그리고 올바른 규제가 왜 중요한지에 대해 3명의 기술 정책 전문가를 통해 설명했다.

"인간의 상상력과 연약함이 잘못된 타겟으로 이동할 우려"

AI를 규제해야 하는 이유는 기술이 통제 불능이기 때문이 아니라 인간의 상상력이 도를 넘었기 때문이라고 펜실베이니아 주립대학교 미디어 효과 시암 순다르 교수가 설명했다.

시암 교수는 “쏟아지는 언론 보도는 AI의 능력과 의식에 대한 비이성적인 믿음을 부추겼다”며 “이러한 믿음이 ‘자동화 편향’ 또는 기계가 작업을 수행할 때 경계를 늦추는 경향으로 기반할 것”이라고 말했다.

수 많은 연구에 따르면 사람이 아는 기계가 상호 작용의 원천으로 식별되면 사용자의 마음 속에 ‘기계 휴리스틱’이라고 부르는 정신적 지름길이 촉발되는 것으로 나타났다. 이 지름길은 기계가 정확하고 객관적이며 편견이 없는 '무오류' 라는 믿음을 말한다.

이는 사용자의 판단을 흐리게해 사용자가 기계를 지나치게 신뢰하게 만들 것이라고 전문가들은 설명한다.

하지만 인간은 기술이 보증하지 않는 경우에도 무의식적으로 유능하다고 가정하는 것으로 알려져 있기 때문에 단순히 AI의 무오류성을 부정하는 것만으로 충분하지 않을 것이라는 지적이다.

연구에 따르면 사람들은 컴퓨터가 대화형 언어를 사용하는 등 조금이라도 인간적인 모습을 보이면 컴퓨터를 사회적 존재로 취급하는 것으로 나타났다. 이러한 경우 사람들은 공손함과 호혜성과 같은 인간 상호 작용의 사회적 규칙을 적용한다.

시암 교수는 이와 관련, “컴퓨터가 지각이 있는 것처럼 보이면 사람들은 맹목적으로 신뢰하는 경향이 있다. AI 제품이 이러한 신뢰를 받을 자격이 있고 이를 악용하지 않도록 규제가 필요할 것”이라고 지적했다.

AI는 기존 엔지니어링 시스템과 달리 설계자가 AI 시스템이 어떻게 작동할지 확신할 수 없기 때문에 독특한 과제를 안고 있다.

예를 들어, 기존 자동차가 공장에서 출고될 때 엔지니어는 자동차가 어떻게 작동할지 정확하게 알고 있다. 하지만 자율 주행 자동차의 경우 엔지니어는 새로운 상황에서 어떻게 작동할지 확신할 수 없다.

최근 전 세계 수천 명의 사람들이 GPT-4와 달리2(DALL-E2)와 같은 대규모 생성형 AI 모델이 만들어내는 결과에 놀라움을 금치 못하고 있다.

시암 교수는 “이러한 AI 모델을 개발하는 데 참여한 엔지니어 중 누구도 이 모델이 어떤 결과를 만들어낼지 정확히 말할 수 없다”며 “더 복잡한 문제는 이러한 모델이 점점 더 많은 상호 작용을 통해 변화하고 진화한다는 것”이라고 말했다.

이어 그는 “이 모든 것은 오작동의 가능성이 많다는 것을 의미하고, AI 시스템을 어떻게 배치하고 인간의 감성이나 복지에 피해를 입혔을 때 어떤 구제책을 마련하는지에 따라 많은 것이 달라질 것”이라며 “AI는 고속도로와 같은 인프라이기 때문에 집단에서 인간의 행동을 형성하도록 설계할 수 있지만, 과속과 같은 사과는 예측할 수 없기에 상황에 대처할 수 있는 매커니즘이 필요”할 것이라고 덧붙였다.

AI의 결과와 제품에 대한 정기적인 감사와 정책에 의존하는 규제 또는 거버넌스 프레임워크가 필요하지만, 이러한 프레임워크는 시스템 설계자가 사고에 대해 항상 책임질 수는 없다는 점도 인식해야 한다고 전문가들은 말하고 있다.

딥페이크 기술을 사용해 도널트 트럼프 얼굴을 생성해 거짓 정보를 유출하고 있다. [사진=더 컨버세이션]
도널드 트럼프가 뉴욕시 경찰에 체포된 가짜 사진이 유출되는 등 인공 지능 범죄가 계속 늘어나고 있다. [사진=더 컨버세이션]

‘연성법’과 ‘강행법’ 접근 방식의 결합

최근 AI의 이점도 많이 드러나고 있지만, 위험성과 관련해 규제를 촉구하고 있지만, 아직 정확한 규제를 내리지 못하는 상황이다. 이는 법적인 접근성에 대한 장벽이 높기 때문이다.

이와 관련 텍사스 A&M 대학교 공중보건학과 캐슨 슈미트 교수는 “AI를 잘 규제하려면 먼저 AI를 정의하고 예상되는 AI의 위험과 이점을 이해해야 한다”며 “AI를 법적으로 정의하는 것은 무엇이 법의 적용을 받는지 파악하는 데 중요할 것”이라고 말했다.

그는 이어 “AI 기술은 여전히 진화하고 있기 때문에 안정적인 법적 정의를 내리기는 어렵다”고 덧붙였다.

좋은 규제는 위험을 최소화하면서 공공의 이익을 극대화할 것이다. 그러나 AI 어플리케이션은 아직 새롭게 등장하고 있기 때문에 미래의 위험이나 혜택이 무엇인지 알거나 예측하기 어렵다.

이러한 불확실성 때문에 AI와 같은 신흥 기술은 기존의 법과 규제로 규제하기가 어렵다.

입법자들은 급변하는 기술 환경에 적응하기에는 느린 경우가 많다. 일부 새로운 법률은 제정되거나 도입될 때 이미 구식이 돼 버리기도 한다. 새로운 법률이 없으면 규제 당국은 새로운 문제를 해결하기 위해 오래된 법률을 사용해야 한다.

이로 인해 사회적 이익에 대한 법적 장벽이 생기거나 유해한 행위에 대한 법적 허점이 생기는 경우가 있다고 슈미트 교수는 설명했다.

‘연성법’은 특정 위반을 방지하기 위한 기존의 ‘강행법’ 접근 방식의 대안이다. 연성법 접근 방식에서는 민간 조직이 업계 구성원을 위한 규칙이나 표준을 설정한다. 이는 전통적인 법률 제정보다 더 빠르게 변화할 수 있다.

이에 따라 슈미트 교수는 “연성법은 새로운 어플리케이션과 위험에 빠르게 적응할 수 있기 때문에 신흥 기술에 유망”하지만 “연성법은 집행이 느슨할 수 있다”고 말했다.

슈미트 교수와 연구진들은 신뢰할 수 있는 집행이 가능한 카피레프트 AI(CAITE)를 제안했다.

카피레프트는 자유로운 권한을 배포하는 반면, 부도덕한 개인들이 다른 사람의 작업물로 이득을 추구하려는 것을 방지한다. 이 카피레프트와 특허 트롤(특허 사냥꾼)이라는 지적 재산에 있어 다른 두 가지 개념을 결합한 것이다.

카피레프트 라이선스는 오픈 소스 소프트웨어와 같이 조건에 따라 콘텐츠를 쉽게 사용, 재사용 또는 수정할 수 있도록 허용한다. 카피레프트 AI(CAITE) 모델은 카피레프트 라이선스를 사용해 AI 사용자가 편견의 영향에 대한 투명한 평가와 같은 특정 윤리적 지침을 따르도록 요구한다.

연구진들은 이 모델에서 이러한 라이선스는 위반을 집행할 수 있는 법적 권한을 신뢰할 수 있는 제 3자에게 양도하는 과정에서 이를 통해 윤리적 AI 표준을 집행하기 위해서만 존재하는 집행 기관이 만들어지며, 비윤리적 행위로 인한 벌금으로 부분적으로 자금을 조달할 수 있을 것이라고 설명했다.

슈미트 교수는 “이 기관은 정부 기관이 아닌 민간 기관이라는 점에서 특허 트롤과 유사하며, 다른 사람으로부터 수집한 합법적인 지적 재산권을 집행함으로써 스스로를 지원한다”고 말했다.

그는 이어 “이 경우 법인은 영리를 위한 집행이 아니라 라이선스에 정의된 윤리적 지침을 집행하는 ‘선의의 사냥꾼’이 되는 것”이라고 덧붙였다.

이러한 방식으로 이 모델은 강행법과 연성법 접근법의 장점을 결합해 AI의 고유한 과제를 해결할 것이라고 전문가들은 말하고 있다.

급변하는 기술을 갑작스럽게 규제한다면...

대규모 언어 모델 기반 생성 AI의 발전으로 인해 새로운 AI 관련 규제를 만들어야 한다는 목소리가 높아지고 있다.

캘리포니아 대학교 공공정책 경영학 존 빌라세뇨르 교수가 이러한 논의가 진행됨에 따라 다음과 같은 핵심 질문을 던져야 할 것이라고 설명했다.

첫 번째는 새로운 AI 관련 규제가 필요한지에 대한 질문이다.

AI 시스템에서 잠재적으로 문제가 될 수 있는 많은 결과는 이미 기존 프레임워크에 의해 해결되고 있다고 전문가들은 다음과 같이 설명했다.

은행에서 대출 신청서를 평가하는 데 사용하는 AI 알고리즘이 인종 차별적인 대출 결정으로 이어진다면 이는 공정주거법을 위반하는 것이다.

무인 자동차의 AI 소프트웨어가 사고를 일으킨다면 제조물 책임법에 따라 구제책을 모색할 수 있는 프레임워크가 제공되는 등 프레임워크의 중요성을 통해 AI 관련 규제 도입이 시급하다는 것을 빌라세뇨르 교수는 주장하고 있다.

다음은 ‘급변하는 기술을 갑작스러운 기준으로 규제할 경우 어떤 위험이 있을까’ 생각해봐야 한다.

빌라세뇨르 교수는 1986년 이메일과 같은 당시의 새로운 디지털 통신 기술을 다루기 위해 제정된 저장 통신법을 대표적인 예시로 들었다.

저장 통신법을 제정하면서 의회는 180일 이상 지난 이메일에 대한 개인 정보 보호 수준을 크게 낮췄다.

저장 공간이 제한돼 있기 때문에 사람들이 새로운 메시지를 위한 공간을 확보하기 위해 오래된 메시지를 삭제해 받은 편지함을 지속적으로 정리한다는 논리는 내세웠다.

그 결과 180일 이상 저장된 메시지는 개인 정보 보호 관점에서 덜 중요한 것으로 간주됐다.

하지만 이러한 논리가 타당했는지는 분명하지 않으며, 이메일과 기타 저장된 디지털 커뮤니케이션의 대부분이 6개월 이상 지난 것이 대부분인 2020년대 에는 더더욱 타당하지 않다고 전문가들은 말했다.

이와 관련 빌라세뇨르 교수는 “한 시점의 스냅샷을 기준으로 기술을 규제하는 것에 대한 우려는 바로 이것”이라며 “이는 법이 오래되면 업데이트 하면 되지만, 말처럼 쉽지 않은 것이 현실”이라고 밝혔다.

마지막으로 빌라세뇨르 교수는 어떤 경제적 영향이 있을 것인지 인지해야 한다고 설명했다.

그는 “규제 당국이 AI의 발전을 의도적으로 늦추기 위해 규제한다면, 투자와 혁신, 그리고 그에 따른 일자리 창출은 다른 곳으로 밀려날 것”이라며 “많은 우려도 있지만 교육, 의료, 제조, 교통안전, 농업, 일기 예보, 법률 서비스 이용 등의 분야에서 막대한 혜택도 가져다 줄 것으로 기대되기도 한다”고 말했다.

따라서 AI 규정은 AI의 잠재적 해악을 성공적으로 해결하는 동시에 혜택에 대한 접근성을 보장할 가능성이 높다는 것이 전문가들의 입장이다.

[위키리크스한국=유 진 기자]

yoojin@wikileaks-kr.org


  • 서울특별시 마포구 마포대로 127, 1001호 (공덕동, 풍림빌딩)
  • 대표전화 : 02-702-2677
  • 팩스 : 02-702-1677
  • 청소년보호책임자 : 소정원
  • 법인명 : 위키리크스한국 주식회사
  • 제호 : 위키리크스한국
  • 등록번호 : 서울 아 04701
  • 등록일 : 2013-07-18
  • 발행일 : 2013-07-18
  • 발행인 : 박정규
  • 편집인 : 박찬흥
  • 위키리크스한국은 자체 기사윤리 심의 전문위원제를 운영합니다.
  • 기사윤리 심의 : 박지훈 변호사
  • 위키리크스한국 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재와 복사, 배포 등을 금합니다.
  • Copyright © 2024 위키리크스한국. All rights reserved.
  • [위키리크스한국 보도원칙] 본 매체는 독자와 취재원 등 뉴스 이용자의 권리 보장을 위해 반론이나 정정보도, 추후보도를 요청할 수 있는 창구를 열어두고 있음을 알립니다.
    고충처리 : 02-702-2677 | 메일 : laputa813@wikileaks-kr.org
ND소프트