[인공지능 줌인] 자동화된 AI 편향성 논란 확산...알고리즘적 차별에 맞서는 유럽의 전략은
[인공지능 줌인] 자동화된 AI 편향성 논란 확산...알고리즘적 차별에 맞서는 유럽의 전략은
  • 유 진 기자
  • 승인 2024.03.11 06:26
  • 수정 2024.03.11 11:50
  • 댓글 0
이 기사를 공유합니다

[사진=더컨버세이션]
유럽 전역에서 사용되는 인공지능(AI) 및 자동화된 의사결정(ADM) 시스템이 불러온 편향과 차별 문제에 대해 시민사회가 조직적으로 저항하고 있다. [사진=더컨버세이션]

전세계적으로 인공지능(AI) 및 자동화된 의사결정(ADM) 시스템에 의한 편향과 차별 문제 논란이 지속되는 가운데

유럽 전역에서 시민사회를 중심으로 조직적으로 저항이 확산되고 있다.

인공지능 차별 문제는 이는 AI 시스템의 영향을 넘어서는 더 광범위한 사회 구조적 문제로 꼽히고 있다.

유럽 전역의 공공 행정 기관에서는 이미 AI과 ADM 시스템이 광범위하게 사용되고 있다.

불투명한 '블랙박스' 알고리즘을 기반으로 구축된 이러한 시스템은 공공장소에서 사람의 얼굴을 인식하고, 실업 프로그램을 조직하고, 심지어 시험 성적을 예측하기도 한다.

복지, 건강, 사회 서비스와 같은 민감한 영역에서도 인간의 행동을 예측하고 의사 결정을 내리는 것이 이들의 임무다.

알고리즘 치안 정책을 쉽게 채택한 미국에서 볼 수 있듯이 이러한 결정은 근본적인 편견과 오류의 영향을 받고 있다.

미 미시간주에서 한 흑인 남성이 자신이 저지르지 않은 범죄로 하룻밤 사이에 체포되어 심문을 받고 구금되는 비참한 결과를 초래했다. 그는 인공지능 시스템에 의해 잘못 식별된 것이었다.

이러한 시스템은 인간이 만든 기존 데이터를 기반으로 학습하기 때문에 본질적으로 결함이 있다는 것을 시사했다.

AI 사용의 제도적 규제, 유럽 인공 지능 법의 도입

인공지능과 자동화된 의사결정 시스템에 대한 책임 부여는 법적 및 사회적으로 시급한 주제가 되고 있으며, 캐나다와 유럽의 경우 최근의 법적 사례와 정책 변화가 이를 반영하고 있다.

최근 캐나다에서 법원이 AI 기반 챗봇의 잘못된 조언에 따라 행동한 고객에게 항공사에 보상금을 지급하라는 명령을 내리면서 이 문제가 시험대에 올랐다.

항공사는 챗봇이 "자신의 행동에 대한 책임이 있다"고 주장하며 이에 대한 반박을 시도했다.

유럽에서는 인공 지능 법의 형태로 AI 사용을 규제하려는 움직임이 있었다.

이 법은 크고 강력한 AI 시스템을 규제하고 시스템에 대한 위협을 방지하는 동시에 시민을 잠재적인 오용으로부터 보호하는 것을 목표로 하고 있다.

이 법의 시행과 함께 EU 회원국 전역에서 시민사회 단체들이 다양한 직접 행동과 이니셔티브 및 캠페인을 전개하고 있다.

문제 있는 인공지능 시스템에 대한 저항은 최근 몇 년 동안 더욱 강해지고 가시화되고 있다.

이러한 저항은 규제 당국에 중요한 영향을 미치며, 기본권을 보호하는 조치를 도입하도록 압력을 가하고 있다.

휴먼 에러 프로젝트, AI의 사회적 영향에 대한 유럽의 연구

휴먼 에러 프로젝트는 AI와 알고리즘의 편견과 차별 문제를 집중적으로 연구하는 스위스 생갈렌 대학의 프로젝트로, 이는 유럽 전역에서의 AI 오류에 대한 시민사회의 반응과 저항을 분석하고 있다.

최근 발표된 연구 보고서 ‘유럽의 알고리즘 불공정에 맞선 시민사회의 투쟁’은 시민사회단체 활동가 및 대표들과의 인터뷰를 통해 유럽의 디지털 인권 단체들이 AI 오류를 어떻게 인식하고 있는지 분석했다.

한 연구자는 "조사 결과, 인터뷰에 응한 대부분의 사람들은 AI가 인간을 이해할 때 종종 인종차별적이고 차별적이며 환원주의적일 수 있다는 우려를 나타냈다"고 말했다.

다수의 인터뷰 참여자들은 "AI 오류는 단순히 기술적인 문제가 아니다"라고 지적했다.

이들은 이 문제를 기술 발전 이전부터 존재해온 더 광범위한 사회 구조적 문제의 증상으로 보고 있다.

특히 예측 치안 시스템은 이러한 문제의 대표적인 예로 지적됐다. 이어 참여자는 "이러한 시스템은 기존의 인종 차별을 영속화하며, 종종 인종 프로파일링과 불법 체포로 이어질 수 있다"고 말했다.

알고리즘의 불투명성, 일반 대중의 인식과 통제 문제

유럽에서 AI의 일상적인 영향에 대한 대중의 인식 부족과 빅 테크에 대한 통제 문제가 중요한 이슈로 대두되고 있으며, 이는 기술적 문제를 넘어서 정치적 문제로 인식되어야 한다는 주장이 제기되고 있다.

많은 사람들이 이러한 시스템의 작동 방식과 불공정한 결정에 대한 책임 소재가 불분명하다고 느낀다.

한 연구자는 "이 가시성의 부족은 알고리즘 정의를 위한 투쟁이 단순히 정치적 문제가 아닌, 객관성과 정확성에 대한 우리의 생각에 대한 상징적인 문제임을 의미한다"고 말했다.

언론의 과대광고와 공포에 직면한 AI 논쟁에서 유럽의 시민사회 단체들은 이 문제에 대해 명확히 이야기하고, AI를 사회 문제의 만병통치약으로 보는 시각에 도전하는 것을 목표로 하고 있다.

새 보고서에서 인터뷰 참여자들은 'AI 윤리'와 같은 문구를 사용하는 것조차 주저하고 있으며, 대신 '고급 통계', '자동화된 의사 결정' 또는 'ADM 시스템'과 같은 대체 용어를 사용했다.

빅 테크의 지배력에 대한 통제 역시 주요한 이슈 중 하나다. 한 단체 대표는 "EU의 AI 법과 관련된 이니셔티브에 참여하는 여러 단체는 기술 기업이 악용할 수 있는 문제를 강조하고 허점을 막는 데 직접적인 역할을 하고 있다"고 말했다.

전문가들은 인공지능 편향성에 대한 인식 제고와 빅 테크에 대한 통제가 중요하다고 전문가들은 말하고 있다.

알고리즘 시스템의 위력에 대한 해결책은 단순히 기술적인 문제로만 한정하지 않고, 정치적 문제로도 인식해야 한다는 것이다.

한 연구자는 "해결해야 할 것은 기술적인 버그가 아니라, 시스템이 영속화하는 시스템적 불평등이다"고 지적했다.

[위키리크스한국=유 진 기자]

yoojin@wikileaks-kr.org


  • 서울특별시 마포구 마포대로 127, 1001호 (공덕동, 풍림빌딩)
  • 대표전화 : 02-702-2677
  • 팩스 : 02-702-1677
  • 청소년보호책임자 : 소정원
  • 법인명 : 위키리크스한국 주식회사
  • 제호 : 위키리크스한국
  • 등록번호 : 서울 아 04701
  • 등록일 : 2013-07-18
  • 발행일 : 2013-07-18
  • 발행인 : 박정규
  • 편집인 : 박찬흥
  • 위키리크스한국은 자체 기사윤리 심의 전문위원제를 운영합니다.
  • 기사윤리 심의 : 박지훈 변호사
  • 위키리크스한국 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재와 복사, 배포 등을 금합니다.
  • Copyright © 2024 위키리크스한국. All rights reserved.
  • [위키리크스한국 보도원칙] 본 매체는 독자와 취재원 등 뉴스 이용자의 권리 보장을 위해 반론이나 정정보도, 추후보도를 요청할 수 있는 창구를 열어두고 있음을 알립니다.
    고충처리 : 02-702-2677 | 메일 : laputa813@wikileaks-kr.org
ND소프트