[인공지능 줌인] 2032년 138억 달러 시장 '감성 AI' 전성시대...정신건강 AI관리 잠재력과 위험
[인공지능 줌인] 2032년 138억 달러 시장 '감성 AI' 전성시대...정신건강 AI관리 잠재력과 위험
  • 유 진 기자
  • 승인 2024.04.09 06:16
  • 수정 2024.04.09 11:00
  • 댓글 0
이 기사를 공유합니다

[사진=더컨버세이션]
감성 인공지능(AI)이 급부상하면서, 기계가 공감과 감성 지능을 수행하는 것에 대한 복잡한 윤리적 및 철학적 질문이 제기되고 있다. [사진=더컨버세이션]

기술이 인간의 감정과 점점 더 밀접하게 연결되면서 감정 AI는 첨단 컴퓨팅과 머신러닝을 활용하면서 인간의 감정 상태를 평가하고 시뮬레이션하며 상호작용하고 있다.

이러한 시스템의 정신 건강 관리 분야에서의 잠재적 응용은 무궁무진해 보인다.

예를 들어, 일차 진료 환경에서의 선별 도구, 향상된 원격 치료 세션, 연중무휴 24시간 정서적 지원을 제공하는 챗봇 등이 감정 AI의 활용 사례로 꼽힌다.

이러한 기술은 전문가의 도움을 기다리는 사람들이나 전통적인 치료 방법을 주저하는 이들에게 가교 역할을 할 수 있다.

그러나 감정 AI로의 이러한 전환에는 동의, 투명성, 책임, 그리고 데이터 보안과 관련된 여러 가지 윤리적, 사회적, 규제적 과제가 동반된다.

코로나19 팬데믹 이후 지속되고 있는 정신 건강 위기의 맥락에서 감정 AI의 잠재력과 과제를 탐구하는 연구에 따르면, 감성 AI가 정신 건강 관리나 동반자 관계에 활용될 경우 인간 관계의 깊이와 진정성이 결여된 피상적인 공감을 만들어낼 위험이 있다고 전문가들은 지적하고 있다.

또한, 정확성과 편견의 문제는 문화 전반에 걸친 정서적 다양성을 지나치게 단순화하여 고정관념을 강화하고 소외된 집단에 잠재적으로 해를 끼칠 수 있다.

치료 환경에서 개인의 정서적 경험의 전체 스펙트럼을 이해하는 것이 중요하다는 점에서, 이러한 기술의 적용은 신중하게 고려되어야 할 필요성이 있다.

캐나다 오캐드(OCAD)대학교 A. T. 킹스미스 교수는 ‘더컨버세이션(TheConversation)’을 통해 "감정 AI의 발전은 많은 가능성을 열어줄 수 있지만, 윤리적 고려는 반드시 필수적인 부분으로 남아있다"고 피력했다.

감정 AI 급부상과 함께 윤리적 고려 증가

전 세계적으로 감성 인공지능(AI) 시장이 급속도로 성장하고 있다.

전문가들은 2032년까지 이 시장이 무려 138억 달러의 가치에 이를 것으로 예상하고 있다.

이러한 성장은 공공 의료, 교육, 교통 등 다양한 분야에서 감성 AI의 적용이 확대되는 데 따른 것이다.

머신러닝과 자연어 처리 기술의 발전 덕분에, 이제 AI 시스템은 얼굴 표정, 음성 톤, 텍스트 데이터를 분석해 사람들의 감정을 더욱 정교하게 파악할 수 있게 됐다.

2023년 초에 출시된 오픈 AI의 차세대 생성형 AI 챗봇인 챗 GPT-4는 다양한 주제와 작업에 대해 사람과 유사한 반응을 제공하며 업계에서 주목을 받고 있다.

최근 연구에 따르면, 챗 GPT는 '감정 인식'에서 일반 인구 평균보다 일관되게 높은 점수를 받으며 감정을 정확하게 식별하고 묘사할 수 있는 능력을 보여줬다.

북미와 유럽 시장에서 오픈 AI가 선두를 달리고 있는 가운데, 아시아 태평양 지역에서는 마이크로소프트의 챗봇 샤오빙이 더 인기를 끌고 있다.

샤오빙은 2014년 '소셜 챗봇'으로 출시돼 사용자와 정서적 유대감을 형성하는 데 중점을 두고 있다.

이 AI는 과거 상호작용을 기억하고 대화를 개인화하여 지속적인 공감적 참여를 유도할 수 있는 능력을 가지고 있다.

향후 몇 년 동안 감성 AI의 발전은 생산성과 정서적 연결을 결합해 정신 건강 관리를 혁신하고 AI와의 상호작용 방식을 새롭게 정의할 것으로 기대된다.

이러한 기술의 급속한 발전은 사람들의 일상 생활에 깊숙이 스며들며, 우리의 정신 건강 관리와 정서적 소통 방식에 중대한 변화를 가져올 것으로 전망됐다.

[사진=더컨버세이션]
Empath와 같은 제품은 감정 AI를 사용해 기분과 감정을 분석하고 있다. [사진=더컨버세이션]

감성 AI의 본질과 미래 위험, 윤리적, 철학적 도전에 직면

감성 인공지능(AI)이 급부상하면서, 기계가 공감과 감성 지능을 수행하는 것에 대한 복잡한 윤리적 및 철학적 질문이 제기됐다.

AI 학자 케이트 크로포드는 그녀의 저서 'The Atlas of AI'에서 디지털 단서를 통해 인간의 감정을 읽는 시스템의 정확성에 대한 의문을 제기했다. 그녀는 인간 감정의 단순화와 맥락의 소거에 대한 우려를 표명했다.

디지털 학자 앤드류 맥스테이는 감정 AI 시스템에 공감을 부여하는 것이 어떤 의미를 가질지에 대해 자세히 살펴보았다.

맥스테이는 '합성 공감'에 대해 경고하며, 인간의 감정 인식을 시뮬레이션하는 것과 진정한 공감 경험 사이의 중요한 차이를 강조했다.

이러한 시스템의 감정 상태 분석 능력은 감시, 착취, 조작과 같은 문제를 야기할 수 있다. 이는 개인의 감정적 영역에 대한 기계의 개입 한계와 경계에 대한 의문을 제기한다.

치료, 상담, 정서적 지원 분야에서 AI를 적용하면 치료 접근성을 혁신하고 의료진의 부담을 줄일 수 있는 잠재력이 있지만, AI의 의인화가 인간 자체의 비인간화로 이어질 수 있는 역설적인 결과를 낳을 수도 있다.

특히, AI 챗봇이 문화적 배경과 개인적 감정 표현의 미묘한 차이를 잘못 해석할 경우, 잘못된 조언이나 지원을 제공할 위험이 있다고 전문가들은 말하고 있다.

이는 특히 정신 건강 문제에서 인간적 공감의 뉘앙스가 필수적인 상황에서 큰 문제가 될 수 있다는 것이다.

이러한 긴장은 정신 건강 치료 및 관리에 감정 AI를 통합하는 과정에서 윤리적이고 신중한 접근이 필요하다는 것을 강조한다.

감성 AI의 개발은 공감, 이해, 연결이라는 인간적 요소를 대체하는 것이 아니라 이를 보완해야 하며, 특히 공감을 중심으로 인간과 AI의 관계를 다시 생각해야 한다.

윤리적으로 개발된 감정 AI를 통해 기술이 인간다움의 의미를 훼손하지 않으면서도 정신 건강을 향상시킬 수 있는 미래를 꿈꿀 수 있다.

이러한 발전은 기술과 인간의 상호작용 방식에 중대한 변화를 가져올 것으로 예상된다.

[위키리크스한국=유 진 기자]

yoojin@wikileaks-kr.org


  • 서울특별시 마포구 마포대로 127, 1001호 (공덕동, 풍림빌딩)
  • 대표전화 : 02-702-2677
  • 팩스 : 02-702-1677
  • 청소년보호책임자 : 소정원
  • 법인명 : 위키리크스한국 주식회사
  • 제호 : 위키리크스한국
  • 등록번호 : 서울 아 04701
  • 등록일 : 2013-07-18
  • 발행일 : 2013-07-18
  • 발행인 : 박정규
  • 편집인 : 박찬흥
  • 위키리크스한국은 자체 기사윤리 심의 전문위원제를 운영합니다.
  • 기사윤리 심의 : 박지훈 변호사
  • 위키리크스한국 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재와 복사, 배포 등을 금합니다.
  • Copyright © 2024 위키리크스한국. All rights reserved.
  • [위키리크스한국 보도원칙] 본 매체는 독자와 취재원 등 뉴스 이용자의 권리 보장을 위해 반론이나 정정보도, 추후보도를 요청할 수 있는 창구를 열어두고 있음을 알립니다.
    고충처리 : 02-702-2677 | 메일 : laputa813@wikileaks-kr.org
ND소프트