[인공지능 줌인] 'AI 공정성' 윤리적, 사회적, 법적 차원의 새로운 과제로 대두..."기술의 미래를 위한 필수 요건"
[인공지능 줌인] 'AI 공정성' 윤리적, 사회적, 법적 차원의 새로운 과제로 대두..."기술의 미래를 위한 필수 요건"
  • 유 진 기자
  • 승인 2024.03.23 06:36
  • 수정 2024.03.23 06:36
  • 댓글 0
이 기사를 공유합니다

[사진=더컨버세이션]
인공지능(AI) 기술의 활용이 증가함에 따라 AI 시스템의 공정성은 의료, 금융, 형사사법 등 다양한 사회 분야에서 신뢰와 포용성, 책임감 있는 기술 발전을 촉진하는 중요한 요소로 부상하고 있다. [사진=더컨버세이션]

인공지능(AI) 기술의 활용이 증가함에 따라 AI 시스템의 공정성이 신뢰와 포용성, 책임감 있는 기술 발전을 촉진하는 중요한 요소로 부상하고 있다. 이같은 공정성 이슈는 의료, 금융, 산업, 형사사법 등 다양한 영역으로 확산되고 있다. 

최근 혁신적인 발전을 거듭하고 있는 인공지능의 기술은 공평하고 공정한 방식으로 개발되고 배포되어야 한다는게 많은 전문가들의 지적이다. AI의 공정성 추구는 단순한 윤리적 의무가 아니라 신뢰와 포용성, 책임감 있는 기술 발전을 촉진하기 위한 필수 요건이 돼야 한다는 것이다.

미국 버지니아대학교 페르디난도 피오레토 교수는 호주 매체 ‘더컨버세이션(Theconversation)’을 통해 AI 공정성 보장의 당위성과 예기치 않게 나타날 수 있는 문제들을 피력했다.

AI에서 공정성이 중요한 이유

인공지능(AI) 기술의 증가하는 활용도와 영향력에 따라, AI의 공정성은 연구자, 개발자, 정책 입안자들에게 기술적 성과를 넘어서는 윤리적, 사회적, 법적 차원의 중요한 문제로 부각되고 있다.

윤리적 관점에서 볼 때, AI 시스템의 공정성은 사람들이 알고리즘 채용과 같이 자신의 삶에 영향을 미치는 결정이 공정하게 이루어진다고 믿을 수 있게 함으로써 해당 시스템에 대한 신뢰와 수용을 구축하는데 필수적이라고 전문가들은 말하고 있다.

사회적으로는 AI 시스템에서의 공정성은 역사적인 편견을 해결하고 포용성을 증진하는 데 도움을 준다.

법적으로 AI 시스템에 공정성을 도입하면, 전 세계적으로 적용되는 차별 금지법과 규정을 준수하는 데도 기여한다. 불공정성은 주로 입력 데이터와 알고리즘에서 비롯된다.

한 연구 결과에 따르면, 입력 데이터에는 사회적인 다양한 분야에서 편견을 지속할 수 있는 요소들이 존재할 수 있다.

예를 들어, 채용 과정에서 사회적 편견이 반영된 데이터를 처리하는 알고리즘은 '나와 같은' 유형의 지원자를 선호하는 편견을 고착화할 수 있다.

이와 같은 편향된 데이터가 머신러닝 알고리즘을 학습시키는 데 사용되면, 알고리즘은 이러한 편견을 증폭시키는 결과를 낳을 수 있다.

AI에서 공정성을 추구하는 것은 단순한 윤리적 의무를 넘어서 신뢰, 포용성, 책임 있는 기술 발전을 촉진하는 필수적인 요건이다.

피오레토 교수는 “AI의 공정성을 확보하는 것은 중요한 과제로, 이를 달성하기 위해서는 기술 개발 과정에서 다양한 관점을 고려하고 지속적인 감시 및 평가가 필요하다”고 말했다. 

통제할 수 없는 속도로 확산되는 인공지능. /출처=포브스
통제할 수 없는 속도로 확산되는 인공지능. /출처=포브스

AI에서 공정성이 어려운 이유

연구에서는 AI를 개발하고 구현하는 과정에서 연구자, 개발자, 정책 입안자들은 AI 시스템이 기존의 편견이나 불평등을 영속화하거나 악화시켜서는 안 된다는 관점에서 공정성을 고려하고 있다.

공정성을 측정하고 AI 시스템에 통합하는 과정은 여러 주관적 판단과 기술적 도전을 포함한다.

공정성에 대한 정의는 인구통계학적 평등, 기회의 평등, 개인의 공정성 등 다양한 방식으로 제시되며, 이러한 정의는 종종 상호 모순되는 수학적 공식과 철학을 담고 있다.

이는 공정성에 대한 모든 기준을 한 번에 충족시키는 것이 실질적으로 어려운 이유 중 하나다.

더 나아가 공정성은 단일 지표나 가이드라인으로 단순화할 수 없는 개념이다. 공정성은 기회의 평등, 대우의 공정함, 영향력의 균형 등과 같은 다양한 측면을 포함한다.

이는 AI 개발자들이 다양한 관점을 고려하고 균형을 잡기 위해 끊임없이 노력해야 함을 의미한다.

AI의 공정성 추구는 단순히 기술적 문제가 아니라 더 넓은 사회적, 윤리적 차원의 문제로 다뤄져야 한다.

공정성에 대한 의도치 않은 영향

AI 시스템에서 공정성을 추구하는 과정은 다양한 복잡성과 의도치 않은 영향을 내포하고 있다.

AI 개발의 모든 단계에서 공정성을 면밀히 고려해야 하며, 이러한 고려는 개인정보 보호, 보안, 컴퓨팅 리소스와 같은 다양한 제약 조건과 어떻게 상호작용하는지 이해하는 것을 포함한다.

연구에 따르면, 이러한 제약 조건은 AI 시스템의 공정성에 중대한 영향을 미칠 수 있다.

예를 들어, 계산 효율성에 대한 요구는 때때로 단순화와 간과로 이어질 수 있으며, 이는 특정 그룹에 대한 불공평한 결과를 초래할 수 있다.

네트워크 가지치기와 같은 머신러닝 모델 최적화 방법이 특정 그룹에 불리하게 작용할 수 있다는 사실도 발견됐다.

페르디난도 피오레토 교수는 “개인정보 보호 기술은 필수적이지만, 이 기술이 데이터의 편향을 식별하고 완화하는 데 필요한 정보를 모호하게 만들 수 있다”며 “이러한 노이즈 추가는 특정 그룹에 불균형적인 영향을 미치며, 공공 서비스의 리소스 할당과 같은 중요한 의사 결정 과정에 왜곡을 초래할 수 있다”고 말했다.

이어 그는 “AI 개발 과정에서 공정성에 미치는 이러한 제약 조건은 서로 교차하여 복합적인 영향을 미친다”며 “개인정보 보호 조치가 데이터의 기존 편향을 악화시킬 수 있으며, 이는 기존의 불평등을 증폭시키는 결과를 낳을 수 있다”고 덧붙였다.

이에 따라, AI 개발 시 개인정보 보호와 공정성에 대한 포괄적인 이해와 접근이 필요하다.

AI에서 공정성을 구현하기 위해서는 다각적인 문제를 고려하고, 이를 해결하기 위한 전략적이고 종합적인 접근이 요구되고 있다.

만능솔루션은 있을까? 

전문가들은 AI를 공정하게 만드는 일은 간단하지 않으며, 만능 솔루션은 존재하지 않는다고 지적한다. 지속적인 학습과 적응, 협업의 과정이 필요하다는 것이다.

피오레토 교수는 “편견이 사회에 만연해 있다는 점을 고려할 때, AI 분야에서 일하는 사람들은 완벽한 공정성을 달성하는 것이 불가능하다는 것을 인식하고 지속적인 개선을 위해 노력해야 한다고 생각한다”고 말했다.

이어 그는 “이를 위해서는 엄격한 연구, 사려 깊은 정책 결정, 윤리적 실천에 대한 헌신이 필요하다”고 “이를 위해서는 AI의 연구자, 개발자, 사용자가 AI의 개념부터 데이터 수집 및 알고리즘 설계, 배포에 이르기까지 AI 파이프라인의 모든 측면에 공정성에 대한 고려가 반영될 수 있도록 해야 한다”고 덧붙였다.

[위키리크스한국=유 진 기자]

yoojin@wikileaks-kr.org

기자가 쓴 기사

  • 서울특별시 마포구 마포대로 127, 1001호 (공덕동, 풍림빌딩)
  • 대표전화 : 02-702-2677
  • 팩스 : 02-702-1677
  • 청소년보호책임자 : 소정원
  • 법인명 : 위키리크스한국 주식회사
  • 제호 : 위키리크스한국
  • 등록번호 : 서울 아 04701
  • 등록일 : 2013-07-18
  • 발행일 : 2013-07-18
  • 발행인 : 박정규
  • 편집인 : 박찬흥
  • 위키리크스한국은 자체 기사윤리 심의 전문위원제를 운영합니다.
  • 기사윤리 심의 : 박지훈 변호사
  • 위키리크스한국 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재와 복사, 배포 등을 금합니다.
  • Copyright © 2024 위키리크스한국. All rights reserved.
  • [위키리크스한국 보도원칙] 본 매체는 독자와 취재원 등 뉴스 이용자의 권리 보장을 위해 반론이나 정정보도, 추후보도를 요청할 수 있는 창구를 열어두고 있음을 알립니다.
    고충처리 : 02-702-2677 | 메일 : laputa813@wikileaks-kr.org
ND소프트