인공지능과 사람이 논쟁을 할 수 있을까?
최근 스위스와 이탈리아의 학자들이 수행한 연구에서, 인공지능 챗봇이 인간보다 훨씬 더 설득력 있는 논쟁을 할 수 있다는 결과가 나와 비상한 관심을 끌고 있다.
이 연구는 챗 GPT-4, 최신의 대규모 언어 모델(Large Language Model, LLM)을 사용해 이루어졌으며, 해당 모델이 인간 토론 상대방보다 상당히 높은 비율(81.7%) 자신의 입장에 동의하도록 상대방을 설득할 수 있는 것으로 분석됐다.
연구팀은 여러 가지 토론 주제를 제시하고, 인간 참가자들에게 무작위로 주제와 입장, 그리고 토론 상대방이 인간 또는 AI일지를 배정했다.
참가자들은 성별, 나이, 인종, 교육 수준, 고용 상태 및 정치적 성향 등에 대한 정보를 제공했다.
이러한 정보는 경우에 따라 토론 상대(인간과 AI 모두)에게 제공돼 개인에 맞는 논쟁을 위한 목적으로 사용됐다.
연구 결과, 챗 GPT-4는 인구통계학적 정보를 활용해 토론 상대를 효과적으로 설득하는 능력이 인간보다 월등히 높았다.
이 정보가 없었을 때에도 GPT-4는 여전히 인간을 능가하는 성과를 보였으며, 반대로 인간에게 인구통계학적 정보를 제공했을 때의 성과는 오히려 악화됐다.
이러한 연구 결과는 LLM의 설득력을 조사한 최초의 연구는 아니지만, 실시간 시나리오에서 AI의 설득력이 어느 정도인지를 파악하는 데 중요한 역할을 한다고 전문가들은 말하고 있다.
연구팀은 그들의 연구가 완벽하지 않다는 점을 인정하면서도, 이러한 결과가 주요 우려 사항이 될 수 있다고 주장했다.
연구팀은 이번 연구가 개인화 및 AI 설득에 대한 우려가 유의미하다는 것을 시사한다고 결론지었다.
이는 대규모 허위 정보 캠페인을 위해 AI를 활용하려는 악의적 행위자들에게 상당한 효과를 가져다 줄 수 있음을 의미한다.
연구팀은 온라인 플랫폼과 소셜 미디어 사이트가 AI 설득의 위협을 심각하게 고려하고 잠재적 영향에 대응할 필요가 있다고 강조했다.
이 연구는 AI 기술의 발전과 그것이 사회에 미치는 영향에 대한 깊이 있는 이해를 제공하고 있다고 전문가들은 평가했다.
한 인공지능 전문가는 "AI 기술이 계속 발전함에 따라, 이러한 연구는 우리가 어떻게 AI와 상호작용하고 그것을 이해할 것인지에 대한 중요한 통찰력을 제공하고 있다"고 말했다.
[위키리크스한국=유 진 기자]
yoojin@wikileaks-kr.org