[WIKI 인사이드] AI도 차별적·편향적 도구··· “규제 완화보다 윤리 기준 보편화 시급”
[WIKI 인사이드] AI도 차별적·편향적 도구··· “규제 완화보다 윤리 기준 보편화 시급”
  • 최종원 기자
  • 기사승인 2020-01-15 07:16:48
  • 최종수정 2020.01.14 20:47
  • 댓글 0
이 기사를 공유합니다

인공지능 [연합뉴스]
인공지능 [연합뉴스]

한국의 인공지능(AI) 수준을 높이기 위해 규제 완화에 대한 목소리가 높아지는 가운데, 그에 맞는 AI 윤리 기준이 선행돼야 한다는 주장이 팽팽히 맞서고 있다.

15일 한국정보화진흥원(NIA)의 '2019년 우리나라 인공지능(AI) 수준 조사' 보고서에 따르면 우리나라의 AI 수준은 미국과 중국 등 선도국에 크게 못 미치는 것으로 나타났다. 특히 산업 및 기술 관련 지표에서 미국과 중국 등 선도국과의 격차가 벌어지고 있는데, 우리나라는 선도국의 반 이상이 되는 지표가 한 건도 없을 정도다. ‘IT 강국을 넘어 AI 강국으로 도약하겠다’는 정부의 의지와는 달리 상황이 녹록치 않다.

업계에서는 AI 강국 도약을 위해서는 규제 완화가 이뤄져야 한다는 목소리가 높다. 지난달 한국경제연구원이 국내 산학연 AI 전문가 30명을 대상으로 실시한 설문조사에서는 21.1%가 기술혁신과 신산업 창출을 저해하는 규제를 완화해야 한다고 응답했다. 스위스 국제경영개발대학원(IMD)의 '2019년 국가경쟁력 평가'에서 한국은 기업 규제 항목에서 63개국 중에서 50위를 차지하며 ‘규제공화국’의 이면을 여실히 드러냈다. 

문재인 대통령은 지난해 10월 28일 코엑스에서 열린 인공지능 콘퍼런스 '데뷰(DEVIEW) 2019'에 참석해 '인공지능 정부'가 되겠다고 밝혔다. [사진=연합뉴스]
문재인 대통령은 지난해 10월 28일 코엑스에서 열린 인공지능 콘퍼런스 '데뷰(DEVIEW) 2019'에 참석해 '인공지능 정부'가 되겠다고 밝혔다. [사진=연합뉴스]

하지만 AI의 경우 아직까지 우려되는 부작용이 많아 무작정 규제를 풀기보다 그에 맞는 윤리 기준이 필요하다는 분석도 설득력을 얻고 있다. AI 윤리는 세계 각국 전문가들 사이에서 주요 논제로 떠오르고 있는데, 이는 일반 대중들의 인식 속에 아직 AI는 ‘낯선 존재’로 부각되면서 막연한 두려움이 확산된 결과다. 영화 ‘터미네이터’처럼 인간의 지능을 아득히 초월한 AI가 인류를 공격할 수도 있다는 두려움이 실례(實例)다.

이에 따라 기존 IT 기술과 달리 AI는 엄격한 윤리 기준을 요구받고 있다. 업계 관계자는 “인간의 지능을 뛰어넘는 AI가 개발되려면 아직 많은 시간이 필요하다”며 “가장 큰 문제점은 AI가 특정 목적을 위해 편향적으로 사용될 수 있다는 점”이라고 말했다. 

사용자들이 주요 문젯거리로 지목한 것은 ‘편향성’이다. 실제로 데이터 제공 업체 ‘데이터로봇(DataRobot)’의 보고서 ‘The State of AI Bias in 2019’에 따르면 AI 사용 기업의 42%가 ‘인공지능이 가진 편향성 때문에 심히 우려스럽다’는 의견을 표출했다. 편향성 방지를 위해 윤리 원칙을 설정하는 등 실제적인 절차를 밟기 시작했다는 기업은 83%였고, 인공지능 편향성과 관련된 규제가 필요하다고 답한 비율은 85%였다. 

The State of AI Bias in 2019 보고서 일부. [자료=DataRobot]
'The State of AI Bias in 2019' 보고서 일부. [자료=DataRobot]

기업의 채용 과정에서 AI를 도입했을 때 남성 중심적 데이터 수집으로 인해 여성 지원자를 차별하거나, AI 알고리즘이 흑인의 재범 가능성을 백인보다 2배 높다고 판단하는 경우는 충분히 편향적이다. 구글코리아 이재현 본부장은 지난 11월 세종문화회관에서 열린 ‘AI for Society 2019’ 자리에서 “AI도 사람과 비슷해 충분히 편향적으로 활용될 수 있다”며 “이를 어떻게 현명하게 풀어갈 것인지에 대한 고민이 좀 더 필요하다”고 주장했다. 

이와 관련 카카오는 2018년 1월, 전체 직원들의 의견을 종합해 AI 윤리 헌장을 기업 차원에서 천명했다. 초기에는 카카오 알고리즘 기본 원칙, 차별에 대한 경계, 학습 데이터 운영, 알고리즘의 독립성, 알고리즘에 대한 설명까지 5개 조항이었다. 그러다가 작년에 ‘기술의 포용성’ 조항을 추가해 의도하지 않은 사회적 소외를 방지하겠다는 기업 차원의 의지를 드러냈다.

카카오 대외정책팀 김대원 이사도 같은 자리에서 “서비스 품질(QOS) 문제가 만든 AI의 의도적 차별성, 편향성, 불투명성, 통제 불가능성에 대한 해결책을 모색해야 한다”며 “익숙치 않은 취약계층을 위해 기술의 '포용성'을 항상 고려하겠다"고 설명한 바 있다.

카카오 알고리즘 윤리 헌장 중 일부. [사진=카카오 홈페이지]
카카오 알고리즘 윤리 헌장 중 일부. [사진=카카오 홈페이지]

글로벌 기업들도 AI 기술의 급격한 발전보다 사회와의 공존을 추구하고 있다. 구글은 지난해 'AI first(AI를 최우선으로)'에서 'AI for Everyone(모두를 위한 AI)'로 기조를 전환시켰다. AI를 통해 사회 문제를 해결하는 데 도움을 주는 아이디어를 제공하면 상금을 수여하고, 한국에서도 향후 5년간 5만명의 AI 전문가를 육성할 계획이다. 마이크로소프트는 인공지능 개발자 대부분이 백인 남성이라는 점에서 성차별적인 알고리즘 해결을 위해 다양한 여성 인공지능 개발자를 채용하겠다고 밝혔다.  

AI가 사람과는 본질적으로 다른 윤리 기준이 적용돼야 한다는 지적도 제기된다. 업계 관계자는 “‘윤리’는 사람으로서 마땅히 지켜야 할 규범인데, AI는 사람이 아니기 때문에 인간 중심적으로 윤리원칙을 제정하는 것은 상당히 모호할 수 있다”며 “AI가 인간의 지능을 따라가지 못하는 시점에서 윤리에 대해 논하는 것은 아직 시기상조인 것 같다”고 자신의 의견을 피력했다.

한편, 정부는 인공지능(AI)을 활용해 2030년까지 최대 455조원의 경제 효과를 창출하고, 현재 경제협력개발기구(OECD) 30위 수준인 삶의 질 영역을 10위까지 끌어올리는 것을 목표로 한 '인공지능(AI) 국가전략'을 마련해 추진한다.

[위키리크스한국=최종원 기자]

sus@wikileaks-kr.org