[인공지능 줌인] “AI 사용자의 책임이 커질 것”...거세지는 생성형 AI의 저작권 위반 논란
[인공지능 줌인] “AI 사용자의 책임이 커질 것”...거세지는 생성형 AI의 저작권 위반 논란
  • 유 진 기자
  • 승인 2024.03.31 06:16
  • 수정 2024.03.31 09:10
  • 댓글 0
이 기사를 공유합니다

[사진=더컨버세이션]
생성형 AI의 발전이 창의성을 촉진하는 가운데, 저작권 보호에 대한 새로운 도전과 그에 따른 규제의 중요성을 강조되고 있다. [사진=더컨버세이션]

창의적인 분야에서의 혁신으로 주목받고 있는 생성형 인공지능(AI)이 지적 재산과 저작권 보호 문제에 대한 새로운 논란을 불러일으키고 있다.

생성형 AI 도구, 예를 들어 챗 GPT와 같은 기술은 대량의 데이터를 기반으로 학습된 AI 모델을 활용하고 있다.

인터넷에서 수집된 수십억 개의 텍스트와 이미지 데이터를 통해 생성 AI는 딥러닝과 전이 학습 같은 머신 러닝 기법으로 데이터 간의 관계를 이해한다.

그러나 이러한 기술의 결과물이 저작권으로 보호되는 자료와 매우 유사할 수 있다는 점에서 문제가 발생하고 있다고 전문가들은 지적하고 있다.

이는 생성형 AI가 어떻게 학습되는지를 떠나, 이 기술의 광범위한 사용으로 인해 생성물이 저작권 보호를 침해하는 경우, 개인과 기업이 이에 대한 책임을 지게 될 수도 있다는 것이다.

생성형 AI의 결과물이 저작권 보호를 침해할 경우, 이에 대한 책임은 누구에게 있을지는 오늘날 기술 발전이 가져온 가장 큰 법적 도전 중 하나로 여겨지고 있다.

이 문제에 대한 명확한 해답은 아직 제시되지 않았지만, 이러한 기술의 발전과 함께 저작권 문제를 다루는 법적 프레임워크의 개선이 절실히 필요하다는 의견이 지배적이다.

이는 창의성을 촉진하는 동시에 지적 재산권을 존중하는 균형 잡힌 접근이 필요하다는 것을 의미하고 있다.

미국 미시간주립대 안자나 수살라 교수는 ‘더컨버세이션(Theconversation)’을 통해 "생성형 AI의 발전이 창의성을 촉진하는 가운데, 저작권 보호에 대한 새로운 도전과 그에 따른 규제의 중요성을 강조되고 있다"고 말했다. 

프롬프트와 저작권 위반, 생성형 AI의 새로운 도전

연구자들과 언론인들은 최근, 사람들이 생성형 인공지능(AI) 도구를 사용하여 저작권을 위반할 수 있는 텍스트, 이미지, 동영상을 만들 수 있다는 가능성을 제기하고 있다.

생성 AI 도구는 사용자에게 저작권 침해에 대한 명확한 경고를 제공하지 않으며, 이로 인해 사용자가 의도치 않게 저작권 보호를 침해할 수 있다는 우려가 커지고 있다.

생성형 AI 회사들은 이와 관련하여 자신들의 기술이 저작권이 있는 저작물을 학습하더라도, AI는 학습 데이터를 복사하는 것이 아니라 요소 간의 연관성을 학습한다는 법적 논리를 제시하고 있다.

예를 들어, 이미지 생성기 스테이블 디퓨전(Stable Diffusion)의 제조업체인 스태빌리티 AI(Stability AI)는 특정 프롬프트에 대한 응답으로 제공되는 이미지가 학습 데이터와 일치하지 않을 가능성이 높다고 주장되고 있다.

그러나 일부 감사 연구에서는 생성형 AI 도구의 최종 사용자가 저작권으로 보호되는 콘텐츠와 유사한 작품을 만들어 저작권을 위반할 수 있다고 밝혀졌다.

저작권 침해를 입증하기 위해서는 작품의 문체적 유사성과 독창적인 표현 사이의 밀접한 관계를 감지해야 한다.

이와 관련, 컴퓨터 과학자 게리 마커스와 아티스트 리드 서던의 감사 연구는 생성 AI 모델이 저작권 보호를 침해할 수 있는 이미지를 생성하는 정도를 보여준다.

뉴욕 타임즈에서도 생성형 AI 도구가 유사한 이미지를 생성할 수 있음을 시사하는 비교 연구를 수행했다.

이러한 상황은 생성형 AI의 발전과 함께 저작권 보호 법적 프레임워크의 적절한 개선 필요성을 시사한다.

이는 사용자가 의도치 않게 저작권을 침해하지 않도록 하는 동시에, 창의성과 지적 재산권 보호 사이의 균형을 찾는 것이 필요함을 의미한다.

[사진=더컨버세이션]
사진에서 그림을 그린 켈리 맥커넌을 비롯한 일부 예술가들은 저작권 침해로 AI 회사를 고소했다. [사진=더컨버세이션]

AI 도구의 저작권 침해를 막기 위한 가드레일 개발

최근 법학자들은 AI 도구의 저작권 침해를 방지하기 위한 가드레일 구축의 중요성에 주목하고 있다.

이를 "스누피 문제"라고 부르며, 예를 들어 저작권이 보호되는 만화 캐릭터 스누피와 같은 저작물의 이미지가 많을수록 생성형 AI가 이를 복사할 가능성이 높아진다고 지적됐다.

컴퓨터 비전 연구자들은 오랫동안 로고와 특허로 보호되는 이미지 같은 저작권 침해를 탐지하는 방법을 연구해왔다.

로고 감지는 위조 제품을 식별하는 데 도움이 될 수 있으며, 이러한 접근 방법은 저작권 위반 감지에도 활용될 수 있다. 또한 콘텐츠의 출처와 진위 여부를 확인하는 방법도 중요하다.

모델 학습과 관련해서는, AI 연구자들이 생성형 AI 모델이 저작권이 있는 데이터를 학습하지 않도록 하는 다양한 접근법을 제안하고 있다.

예를 들어, AI 회사 앤스로픽(Anthropic)는 고객 데이터를 고급 모델 학습에 사용하지 않겠다는 서약을 발표했다.

또한, 모델 학습 과정에서 생성형 AI의 결과물과 저작권이 있는 자료 간의 유사성을 줄이는 것과 AI 도구의 오작동을 방지하기 위한 팀의 구성과 같은 AI 안전 조치가 중요하다고 전문가들은 말하고 있다.

이러한 노력은 AI 기술의 발전과 함께 저작권 보호 문제에 대한 새로운 접근법이 필요함을 시사한다.

이는 AI 도구의 발전이 창의성을 촉진하는 동시에 지적 재산권을 보호하는 균형을 맞추는 방향으로 나아가야 함을 의미하고 있다.

규제를 통한 AI 저작권 침해 방지, 정책 입안자의 역할

인간 크리에이터가 저작권을 위반하는 콘텐츠 제작을 거부할 수 있는 것처럼, 제너레이티브 AI 회사들은 유사한 가드레일을 구축할 수 있을지에 대한 논의가 활발하게 진행 중이다.

현재 제너레이티브 AI에 대한 가드레일을 구축하는 방법은 명확하게 확립되어 있지 않으며, 사용자가 저작권 침해 여부를 판단할 수 있는 공개 도구나 데이터베이스 또한 부재하다.

이러한 상황에서 정책 입안자와 규제 기관의 역할이 중요하다는 인식이 커지고 있다.

전문가들은 순진한 사용자가 저작권 침해를 피하기 위한 모범 사례를 습득하기를 기대하는 것은 비현실적이라고 지적되고 있다.

따라서 법률 및 규제 지침의 조합을 통해 저작권 안전을 보장하는 방안이 필요하다는 것이다.

이를 위해, 생성형 AI 모델을 구축하는 회사들은 저작권 침해를 제한하기 위한 필터링 기법이나 모델 출력을 제한하는 방법을 도입할 수 있다.

또한 규제 기관이 개입하여 생성형 AI 모델 제작자가 데이터 세트를 구축하고 모델 학습을 저작권 침해의 위험을 줄이는 방식으로 진행하도록 하는 것이 필요하다는 의견이 제시되고 있다.

이러한 접근 방법은 제너레이티브 AI의 발전과 함께 지적 재산권 보호에 대한 새로운 방법론을 요구하며, 이는 기술 발전과 법률 간의 조화를 위한 중요한 단계로 여겨지고 있는 상황이다.

[위키리크스한국=유 진 기자]

yoojin@wikileaks-kr.org


  • 서울특별시 마포구 마포대로 127, 1001호 (공덕동, 풍림빌딩)
  • 대표전화 : 02-702-2677
  • 팩스 : 02-702-1677
  • 청소년보호책임자 : 소정원
  • 법인명 : 위키리크스한국 주식회사
  • 제호 : 위키리크스한국
  • 등록번호 : 서울 아 04701
  • 등록일 : 2013-07-18
  • 발행일 : 2013-07-18
  • 발행인 : 박정규
  • 편집인 : 박찬흥
  • 위키리크스한국은 자체 기사윤리 심의 전문위원제를 운영합니다.
  • 기사윤리 심의 : 박지훈 변호사
  • 위키리크스한국 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재와 복사, 배포 등을 금합니다.
  • Copyright © 2024 위키리크스한국. All rights reserved.
  • [위키리크스한국 보도원칙] 본 매체는 독자와 취재원 등 뉴스 이용자의 권리 보장을 위해 반론이나 정정보도, 추후보도를 요청할 수 있는 창구를 열어두고 있음을 알립니다.
    고충처리 : 02-702-2677 | 메일 : laputa813@wikileaks-kr.org
ND소프트