[디지털 줌인] 챗GPT의 위험요소, 어떻게 제거할 것인가...스탠포드대 전문가가 보는 챗봇의 미래
[디지털 줌인] 챗GPT의 위험요소, 어떻게 제거할 것인가...스탠포드대 전문가가 보는 챗봇의 미래
  • 최석진 기자
  • 승인 2023.02.20 05:34
  • 수정 2023.02.20 05:34
  • 댓글 0
이 기사를 공유합니다

오픈AI의 인공지능 챗봇 '챗GPT' [사진 = 연합뉴스]
오픈AI의 인공지능 챗봇 '챗GPT' [사진 = 연합뉴스]

스탠포드대학교가 최근 디지털 소통 분야를 가르치고 있는 저명한 학자 제프 핸콕(Jeff Hancock)과, 챗GPT 같은 인공지능 챗봇들의 미래를 진단하는 대담 프로그램을 진행하고 그 결과를 대학 웹사이트에 게재했다. 

제프 핸콕 교수는 인터뷰를 통해 "AI(인공지능) 활용과 인간성 사이의 상관관계와 AI가 인간들 사이의 소통 및 상호 작용에 어떤 영향을 미칠지 생각해야 한다"고 말했다. 다음은 인터뷰를 요약한 전문이다.

챗GPT는 2022년 11월 일반에 공개된 이후 전 세계 수억 명 사용자에게 실용적인 내용부터 비현실적인 내용들까지 다양한 요청에 대해 인간의 소리처럼 들리는 답변을 쏟아내면서 AI(인공지능)의 놀라운 잠재력을 보여주며 전 세계의 주목을 받고 있다.

챗GTP는 자기소개서의 얼개를 제공하기도 하고, 시를 짓기도 하며, 자신이 마치 윌리엄 셰익스피어라도 된 것처럼 행세하고, 데이트 앱 사용자를 위한 구애 메시지를 만들어주기도 하고, 심지어는 뉴스 기사까지 생성할 수 있는 등 엄청나게 다양한 결과를 보여주고 있다.

챗GPT처럼 전도가 유망한 AI 어플리케이션은 윤리적 딜레마를 낳기도 한다. 인간의 자연어 능력을 모방할 수 있는 AI 기반 도구가 점점 더 지배하는 세상에서 ‘진짜’라거나 ‘진실하다’는 말은 무엇을 의미할까?

스탠포드대에서 디지털 커뮤니케이션을 가르치고 있는 제프 행콕(Jeff Hancock) 교수는 그의 연구 논문에서 이 같은 문제와 AI가 인간관계에 미치는 영향을 다루고 있다.

행콕 교수는 ‘AI 기술이 정말 뛰어난 인공지능을 구현하는지의 문제(Turning Test)’는 이제 논란의 대상도 되지 않는다고 말한다. 이제 챗봇(chatbot)은 너무나 그럴듯하게 들리기 때문에 사람들이 AI와의 대화에서 인간과 기계를 구별하는 것이 불가능해졌으며, 그 결과 대규모 조작과 속임수에 대한 엄청난 위험이 제기되고 있다.

그렇다면 이러한 도구를 해롭지 않고 유익하게 사용할 수 있는 방법은 무엇일까? 바로 핸콕 교수 같은 전문가들이 챗봇의 미래를 우려하는 부분도 바로 그 지점이다.

핸콕 교수는 사람들을 도와주는 AI의 잠재력을 긍정적으로 보고 있지만 동시에 위험 요소도 그냥 지나치지 않는다.

결국 궁극적인 우리의 과제는 인간의 목표에 합당한 AI를 개발하고, 이러한 신기술을 효율적이고 윤리적인 방식으로 가장 잘 사용하는 방법을 사람들에게 교육하는 것이 되어야 한다고 그는 말한다.

지금까지 몇 년에 걸쳐 핸콕 교수는 AI를 통한 커뮤니케이션이 어떻게 인간관계를 변화시키거나 훼손시킬 수 있는지를 연구해왔다.

-챗GPT와 같은, AI를 매개로 하는 어플리케이션이 인간의 삶과 어떤 식으로 어울린다고 생각하시나요?

계산기가 수학 자체를 대체하거나 계산대에서 근로자들을 완전히 몰아내거나 회계사의 필요성을 대체하지 못한 것처럼 인간은 AI 챗봇들을 수단으로 사용하는 방법을 찾을 것이라고 생각합니다. 우리가 챗봇의 엄청난 위력을 인정하면 인정할수록 우리는 이에 대한 활용도 또한 충분히 폭넓게 상상할 거라 믿습니다. 그러나 이러한 AI 챗봇 시스템들은 코드를 꽂는 즉시 원하는대로 작동하는 플러그 앤 플레이(plug and play) 메커니즘이 아니라는 점에 유의해야 합니다. 챗봇들은 아직 그런 수준까지는 도달하지 못하고 있으며, 인간도 이를 잘 활용할 수준에 서있지 않습니다.

챗GPT는 현재 수억 명의 사람들이 사용하고 있으며, 그들 중 다수는 이러한 시스템 활용과 관련된 윤리 교육이나 시스템의 부정적 측면에 대해 교육을 받지 못했습니다.

기술적으로 말한다면 챗GPT와 같은 시스템들은 과거의 그것들보다 훨씬 뛰어난 성능을 지니게 되었지만, 여전히 많은 문제를 내포하고 있습니다. 현재 이들의 정보 제공 정확도가 현격할 정도로 높은 것은 아닙니다. 가장 정확도가 양호한 답변을 기준으로 50% 또는 70% 정도의 정확률을 보입니다. 그러나 출시가 임박한 것으로 알려진 ‘GPT4’와 같은 새 버전에서는 이 수치가 업그레이드 될 수 있습니다. 챗봇들은 또한 우리가 ‘환각(hallucinating)’이라고 부르는 거짓 답변을 생성하거나 꾸며낼 수 있습니다. 실제로 그들이 좋은 것을 생산하도록 만들려면 더 많은 노력이 필요할 겁니다. 프롬프트(Prompt)는 그렇게 다루기 만만한 대상이 아닙니다.

-사람들을 놀라게 할 수 있는 AI와 디지털 커뮤니케이션에는 무엇이 있습니까?

제 연구실은 AI에 대해 정말 관심이 많았습니다. 많은 사람들이 “이 새로운 봇에 대해 잘 모릅니다. 사용해본 적이 없습니다.”라고 말합니다. 그러나 대부분 사람들은 일종의 AI 커뮤니케이션을 이미 경험해본 바가 있습니다. 가장 흔한 것은 이메일 메시지에서 ‘괜찮습니다.(that sounds good)’, ‘훌륭합니다(that’s great)‘ 또는 ’미안합니다. 잘 못 알아듣겠습니다.(sorry, I can’t)‘와 같은 스마트한 옵션을 활용하는 답장입니다. 우리는 이러한 이메일 답변을 통해, 사람들이 AI가 생성한 응답을 사용하지 않더라도 이것들이 사람들의 사고방식에는 영향을 미친다는 사실을 발견했습니다. 즉, 이 세 가지 옵션은 분명 당신에게 영향을 미친다는 말입니다. 이후 당신은 이메일 답장을 더 짧게 더 간단히 작성하려는 경향을 보이게 됩니다. 또, 언어학적으로도 덜 복잡해지려 노력하게 됩니다. 당신은 더 긍정적인 감정을 가지고 긍정적 용어를 사용하고 가급적 부정적인 용어를 배제하려 합니다. 그것이 바로 스마트한 답장이 만들어지는 방식입니다. 

[사진 = 연합뉴스]
[사진 = 연합뉴스]

-챗GPT가 인간에게 특히 도움이 되는 특정 영역이 있습니까?

챗GTP가 가져올 완전히 새로운 영역이 있다고 생각합니다. 정말 변곡점에 다다랐다는 느낌입니다. 예를 들어, 치료 및 교육(coaching) 분야의 초기 단계에 엄청난 효력을 발휘할 수 있을 겁니다. 직장에서 업무가 잘 풀리지 않거나 협상하는 데 도움이 필요하거나 정서적으로 불안감을 느끼고 있다고 가정해 봅시다. 이런 경우 실제로 카운셀러나 강사를 만나는 것은 어렵고 비용이 많이 들 수 있습니다. 이러한 때에 챗봇 시스템들은 적어도 문제 해결의 초기 단계에서 도움을 제공할 수 있습니다. 가장 이상적인 모델은 챗GPT가 실제 강사처럼 지원할 수 있을 때 성취될 것이고, 그때가 되면 더 많은 사람들을 더 효과적으로 도울 수 있을 겁니다.

챗GPT는 강사가 피교육자의 요구 사항을 이해하려 할 때 유용할 수 있습니다. 이는 챗GPT 같은 시스템이 교육을 위해 피교육자에게 질문한 다음 다시 강사를 위해 그 결과를 합성하도록 훈련하는 표준 질문이 포함될 수 있습니다. 이를 통해 강사는 잠재적으로 해당 고객과 더 깊은 관계를 맺고 더 잘 도울 수 있습니다.

물론 이러한 종류의 소통을 챗봇과 나누는 데에 대해 사람들이 어떻게 생각할지는 아직 알 수 없습니다. 우리가 몇 년 전에 수행한 일부 작업에서 사람들은 챗봇과의 대화에서도 감정적, 관계적, 심리적 결과를 인간과 유사하게 공유할 수 있음을 보여주었습니다. 이런 면에서는 충분한 잠재력이 있지만 이와 같은 소통에 챗봇 시스템을 도입하는 데에는 확실히 주의가 필요합니다.

-당신은 디지털 소통의 신뢰와 속임수를 연구하는 전문가입니다. AI가 사람들의 신뢰에 영향을 미친다고 보십니까?

나는 기계에 의해서도 인간의 정체성이 입증될 수 있다고 생각합니다. AI 시스템은 수많은 대상에 최적으로 활용될 수 있고, 인간관계도 그 중 하나라고 생각합니다. 당신은 “나는 온라인 데이트를 위해 자기 소개를 원하는데, 유머가 넘치고 따뜻하며 개방적인 사람으로 보여지고 싶어요.”라고 요청할 수 있습니다. 나는 수업 시간에 학생들에게 챗GPT를 사용하여 온라인 데이트 프로필을 만들도록 연습을 시킨 뒤 모든 학생들이 챗GPT의 자기 소개가 자신을 정확하게 표현했다고 말했을 때 충격을 받았습니다. 학생들은 결과에 약간의 수정이 필요하다고 생각하기는 했지만 대체로 결과에 놀라워하고 만족스러워했습니다. 챗봇은 특히 소통 불안을 겪거나 자신을 표현하는 데 능숙하지 않은 사람들에게 정말 도움이 될 수 있습니다.

그러나 이러한 설명을 그 사람의 성품을 가르쳐주는 신호로 사용하려는 사람들에게는 ‘인상형성(impression formation)’의 일반적인 과정은 실패를 보게 됩니다. ‘유머가 넘치고 따뜻하며 개방적인 사람으로’ 보이도록 하는 것은 당신이 아니라 당신을 위해 그런 것을 생성해준 기계이기 때문입니다. 우리는 챗봇의 활용에 있어 많은 책임을 지게 될 것입니다. 나는 이것이 우리가 챗봇을 어떤 식으로 활용해야 하느냐 하는 방법과 관련이 있다고 봅니다.

-우리는 챗봇 시스템들을 신뢰할 수 있습니까?

AI 발전 과정과 관련해 기술적인 의문들이 많이 남아있습니다. 가장 우려스러운 점은 이러한 시스템들이 자기 학습을 위해 편향된 데이터에 의존하고 있다는 것입니다. 이것 말고도 의식과 의도(consciousness and intention)와 관련한 더 심오한 철학적 질문도 있습니다. 다시 말해, 기계가 기만적(deceptive)이라는 것은 무엇을 의미할까요? 기계는 자신이 누구인지에 대해 거짓말을 할 수 있고 자신이 하지도 않은 생생한 경험에 대해 이야기할 수 있는데, 기만적이라 함은 바로 이런 부분을 가리킵니다. 그러나 속임수에 대한 대부분의 정의에는 누군가를 오도하려는 의도가 포함됩니다. 챗봇에 그러한 의도가 없다면 기만적인 것일까요? 그 과오가 질문을 하거나 시스템을 기만적으로 활용하는 사람에게 다시 돌아갈까요? 나도 잘 모르겠습니다. 이 시점에서 이 문제와 관련해서는 답변보다는 질문이 더 많은 것도 사실입니다.

-당신은 디지털 허위 정보(disinformation)나 가짜뉴스에 대해서도 연구합니다. AI가 사악한 목적에 활용될 수도 있다고 우려하는 요소는 무엇인가요?

나는 챗봇 활용의 오남용에 대해서도 실질적인 위험이 있음을 환기시키고 싶습니다. ‘스탠포드 인터넷 연구소(Stanford Internet Observatory)’의 제 동료이자 공동 작업자인 르네 디레스타는 챗봇의 허위 정보 생성과 가능한 해법에 대해 연구 보고서를 내놓은 바가 있습니다. 그의 보고서에서 지적한 바와 같이 악의적인 사용자가 언어 모델(language models : 챗봇이 언어를 구성하는 메커니즘)을 활용해 영향력을 행사하려 한다면 그들은 매우 저렴하게 대량의 콘텐츠를 생성할 수 있고, 대중 설득을 위한 새로운 전술을 개발할 수도 있습니다. 이는 허위 정보 문제를 뿌리째 흔들 수 있는 본질적 사항이므로 지금부터 해결책을 찾기 시작해야 합니다.

-대화의 진정성을 입증하기 위해 무엇이 필요한가요?

지난 몇 년 동안 챗봇이 구사하는 이러한 대규모 언어 모델(language models)과 챗봇이 더 이상 인간과 구별될 수 없음을 보여주는 많은 연구들이 진행되었습다.

따라서 소통의 진정성을 입증하는 것은 매우 중대한 문제입니다. 진실해지려면 “이것은 완전히 AI 작품이거나 부분적으로 도움을 받은 겁니다.”라고 말할 수 있습니다. 당신이 그렇게 한다면, 정직하기는 하지만, 연구에 따르면 사람들은 당신의 성실성을 의심할 수도 있습니다. 당신이 사과하면서 AI를 활용해 반성문을 작성했다고 털어놓자 상대방이 그 행위를 성실하지 않게 판단한 연구 결과가 있습니다. 또, 우리 연구 결과에 따르면, 당신이 직장을 구할 때 AI를 활용해 자기소개서를 작성했다고 밝힌다면 회사측은 이를 당신이 덜 성실하다거나 덜 유능하다고 여길 가능성이 있습니다. AI를 사용했다는 사실을 밝히면 당신은 불이익을 당할 수 있지만, 반대로 밝히지 않는다면 진실성이 의심받을까요? 진정성, 속임수 및 신뢰에 관한 이러한 질문들은 매우 중대한 것들입니다. 따라서 우리가 다른 인간과 상호 소통하는 방식에 AI가 어떤 영향을 미칠지를 이해하기 위한 더 많은 연구가 필요합니다.

[위키리크스한국 = 최석진 기자]

dtpchoi@wikileaks-kr.org


  • 서울특별시 마포구 마포대로 127, 1001호 (공덕동, 풍림빌딩)
  • 대표전화 : 02-702-2677
  • 팩스 : 02-702-1677
  • 청소년보호책임자 : 소정원
  • 법인명 : 위키리크스한국 주식회사
  • 제호 : 위키리크스한국
  • 등록번호 : 서울 아 04701
  • 등록일 : 2013-07-18
  • 발행일 : 2013-07-18
  • 발행인 : 박정규
  • 편집인 : 박찬흥
  • 위키리크스한국은 자체 기사윤리 심의 전문위원제를 운영합니다.
  • 기사윤리 심의 : 박지훈 변호사
  • 위키리크스한국 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재와 복사, 배포 등을 금합니다.
  • Copyright © 2024 위키리크스한국. All rights reserved.
  • [위키리크스한국 보도원칙] 본 매체는 독자와 취재원 등 뉴스 이용자의 권리 보장을 위해 반론이나 정정보도, 추후보도를 요청할 수 있는 창구를 열어두고 있음을 알립니다.
    고충처리 : 02-702-2677 | 메일 : laputa813@wikileaks-kr.org
ND소프트