[AI 프리즘] 챗GPT 설교에 대한 당신의 생각은?... 목회자 10명 중 4명 '챗GPT 사용 경험'
[AI 프리즘] 챗GPT 설교에 대한 당신의 생각은?... 목회자 10명 중 4명 '챗GPT 사용 경험'
  • 최석진 기자
  • 승인 2023.04.16 06:58
  • 수정 2023.04.16 13:30
  • 댓글 0
이 기사를 공유합니다

[사진 = 연합뉴스]
[사진 = 연합뉴스]

한국 기독교계에서도 목회자 중 약 절반 정도가 AI(인공지능) 챗봇 ‘챗GPT’를 활용해본 경험이 있는 것으로 나타났다.

최근 공개된 목회데이터연구소와 미래목회말씀연구원의 ‘챗GPT에 대한 목회자의 인식과 사용실태 조사’ 결과에 따르면, ‘목회나 설교를 위해 챗GPT를 사용해 본 경험이 있다’고 답한 비율이 42%로 집계됐다.

이를 한국 전체 목회자 숫자로 대비하면, 목회나 설교를 위해 챗GPT의 도움을 받아본 경험자는 20%로 5명 중 1명꼴인 셈이다.

이처럼 챗GPT의 위력이 종교 영역에까지 파고드는 가운데 CNN이 최근 챗GPT를 활용한 설교에 대한 다양한 반응들을 보도해 주목을 끌고 있다. 다음은 이 보도의 전문이다.

AI의 미래는 인간의 손길이 깃든 기술로 우리를 안내한다. 그렇다면 AI는 고개를 끄덕이게 하는 영적 메시지를 전달할 수 있을 정도로 충분히 인간적일까?

기독교 목회자와 유대교 랍비 들은 최근 몇 가지 프롬프트(prompt)만으로 그럴듯한 문장을 내뱉을 수 있는 AI 언어 학습 모델인 챗GPT가 종교 영역에서 예배의 기본이 되는 설교 준비에도 쓸만한 능력을 발휘한다는 사실을 알아냈다.

역사적으로 종교 의식에 동원되는 설교는 누대(屢代) 간 쌓인 지식과 예리한 문장력 및 지적 연마의 결과가 각 예배 인도자의 고유한 카리스마와 경험과 결합된 형태로 나타난다. 그렇기 때문에 설교문 작성은 예술이나 신성한 사명으로 여겨지기까지 하는 것이다.

그래서 컴퓨터가 단 몇 초 만에 설교문과 유사한 결과를 만들어내는 것을 보고 종교 지도자들은 갑론을박을 벌이고 있다. 즉, AI가 진정으로 인간적이고 영적인 메시지를 전달할 수 있을까? 그리고 그게 가능하다면 컴퓨터의 진보는 정말 찬양할 대상인가, 아니면 인간의 메시지에는 컴퓨터는 도저히 담을 수 없는 그 무엇이 있을까? 

AI와 설교. 포브스
AI와 설교. 포브스

AI 설교는 어떻게 들리는가?

2022년 12월, 랍비 조슈아 프랭클린은 뉴욕 이스트 햄튼에 있는 ‘햄튼 유대인센터’에서 예배를 드리는 동안 회중에게 특이한 메시지를 전했다.

“제가 남의 설교를 표절할 테니 여러분들은 이게 누가 쓴 것인지 맞춰보세요.”

그는 회중을 향해 이런 흥미로운 과제를 던졌다.

그런 다음 프랭클린은 형제 간의 화해 이야기를 담고 있는 토라(모세5경)의 일부인 ‘파라샷 바이가쉬(Parashat Vayigash)’에 대해 집중 설명했다.

“친밀함과 유대감을 위해서는 어려울 때에도 기꺼이 다른 사람에게 다가가는 것이 중요하다는 점을 보여주기 때문에 이것은 우리 모두에게 강력한 교훈이 될 것입니다.”

그는 이렇게 설교했다.

그리고 대략 2분가량의 설교가 끝난 뒤 회중의 박수 소리 속에 프랭클린은 이번 설교의 진짜 저자는 챗GPT라는 사실을 공개했다.

“여러분은 박수를 치시는 군요.”

그는 이렇게 말했다.

“하지만 저는 두렵습니다!”

랍비 프랭클린이, 언어 학습 모델(language learning model)인 챗GPT에게 매우 구체적으로 질문하고, 결과물에서 노련한 학자에게 걸린다면 결코 통과하지 못할 세부 사항들을 발견했다고 덧붙이기는 했지만, 그의 실험은 오싹한 전율로 받아들여지기에 충분하다. 인간의 경험과 밀접한 관련이 있는 종교 지도자의 작업이 결국 컴퓨터에게 잠식당하는 것이나 아닌지?

AI 언어 모델링(AI language modeling)은 어떤 식으로 작동할까?

컴퓨터가 의식, 윤리, 영혼, 그리고 끝내는 인간성까지 성취하는 AI의 미래를 다룬 인기 영화나 드라마 들은 실제와는 거리가 멀다. 실제에 있어서 챗GPT와 같은 AI 도구는 그럴듯한 모방을 시연하는 데 불과하기 때문이다.

CNN이 챗GPT에게 작동 방식을 물었을 때 챗GPT는 다음과 같은 답변을 내놓았다.

“챗GPT는 ‘변환기 신경망(transformer neural network)’이라는 딥 러닝 알고리즘을 사용하여 작동합니다. 챗GPT는 인터넷과 서적 및 기타 소스의 방대한 텍스트 데이터를 통해 훈련되었습니다. 학습 과정에서 챗GPT는 데이터에서 패턴을 식별하고 이를 사용하여 인간 언어와 유사한 텍스트를 생성하는 방법을 익힙니다.”

챗GPT는 이렇게 답을 시작한 다음,

“챗GPT가 독창적인 응답을 생성하는 방식은 ‘언어 모델링(language modeling)’이라는 기술을 활용하는 것입니다. ‘언어 모델링’은 이전 단어가 주어졌을 때 문장에서 다음 단어의 확률을 예측하도록 모델을 훈련하는 작업입니다.”

이렇게 덧붙였다.

결론적으로 챗GPT의 응답은 인간적으로 들릴 수는 있다. 어쩌면 종교적 각성을 기대하는 회중을 만족시키기에 충분히 인간적일 수도 있다.

하지만 일부 전문가들은 분명히 여전히 ​​무언가 빠진 것이 있다고 지적한다.

“한마디로 잘라 영혼이 비어있습니다.”

켄터키주의 목회자이자 신학교수인 허셜 요크는 AP통신과의 인터뷰에서 이렇게 주장했다

하지만 챗GPT는 무수한 문장의 파편들을 ‘학습’받거나 기본적으로 부여받기 때문에 영적인 문장들을 구하는 인간 학자의 작업 중 일부를 몇 초 만에 해낼 수 있다.

기독교에서 쓰이는 설교를 위해 어떤 종류의 텍스트를 참조하는지 물었을 때 챗GPT는 잠시 주저하더니 자신은 AI 언어 모델로서 “개인적 신앙이나 종교적 관련성”을 맺지 않는다고 답했다. 그래서 약간 변경된 형태로 질문을 했더니 다음과 같이 답했다.

“챗GPT와 같은 언어 모델은 기독교 설교를 만들도록 요청받을 때 일반적으로 훈련 데이터와 기독교 신학 및 예배 지식에 의존합니다. 여기에는 성경, 주석, 신학의 결과물, 다른 목회자들의 설교집과 같은 광범위한 기독교 텍스트가 포함됩니다.”

챗GPT는 잠시 쉬었다가 다음과 같이 덧붙였다.

“기독교 설교를 만들기 위해서는 일반적으로 언어 모델에게 특정 주제나 테마가 집중적으로 주어집니다.”

그리고 다음과 같이 이어졌다.

“그런 다음 방대한 지식 데이터베이스를 검색하여 해당 주제와 관련된 정보 및 사례를 찾습니다. 여기에는 해당 주제와 관련된 성경 구절, 신학적 개념, 역사적 또는 문화적 맥락을 식별하는 것이 포함될 수 있습니다.”

[사진 = 연합뉴스]
[사진 = 연합뉴스]

인간적인 설교가 만들어지는 과정

설교문 작성은 대부분의 예배 인도자들에게는 핵심 비법에 해당한다. 능력 있는 설교자는 마르틴 루터 킹 주니어나 오시아스 톤(유대교 랍비) 같은 저명한 신앙 지도자의 발자취를 따르려 한다.

“설교는 많은 종파의 예배에서 절정을 이루는 요소입니다. 설교는 단순히 가르침이 아니라 경전을 올바르게 이해하기 위한 과정입니다. 그리고 설교를 통해 우리 삶의 가치를 묻는 권면의 순간도 있습니다.”

장로교 안수 목사이자 기독교 설교와 가르침을 위한 자원 ‘The Pastor’s Workshop‘의 설립자 스투 스트라찬 목사는 이렇게 주장했다.

“그리고 문화가 세속화됨에 따라 기독교 설교에도 더 많은 요소가 추가됩니다. 교회가 성장하고 싶다면 목회자는 가르침을 현대인의 생활과 현대적 문제와 연관지어야 합니다.”

그는 이렇게 덧붙였다.

솔직히, 교회에서 설교는 매우 중요한 요소이기 때문에 예배 인도자들의 수고를 덜어주는 산업이 번창하는 것도 사실이다.

“목사가 아니라면 목사에 대해 전혀 모른다는 것이 사실입니다.”

스트라찬 목사는 CNN과의 인터뷰에서 이렇게 말했다.

“불쾌하게 들릴지 모르지만 이 말은 사실이고, 스스로의 정체성 파악과도 관련이 있습니다. 목회자들은 항상 누군가의 부름(요청)을 받고, 점점 더 많은 역할이 주어집니다. 그들은 하나님의 말씀을 공부하고, 기도하고, 심방하는 일만 하는 것이 아니라 비전을 제시하고, 직원을 관리하고, 전략적 파트너십을 추구하는 CEO, CFO 같은 사람이 되어야 합니다. 당연히 번아웃이 따를 수밖에 없습니다.”

하지만 목회자의 이러한 부담을 줄이려는 노력은 윤리 문제를 낳을 수 있다. 설교문 대필 작가는 드문 일이 아니며, 설교자가 훌륭한 아이디어를 어디서 얻었는지 밝히지 않을 경우 곤란한 상황이 벌어질 수도 있다.

“어떤 영역의 전통은 다른 무엇보다 독창성을 더 소중히 여긴다고 생각합니다. 즉, 설교에서 대필 작가를 활용한다면 대부분의 목회자들은 눈살을 크게 찌푸릴 것이라고 생각합니다.”

스트라찬 목사는 이렇게 주장했다. 

“금전적 관점에서 볼 때에도 대필 작가 고용은 많은 목회자들이 할 수 있는 일이 아닙니다. 미국 교회들의 평균 신도수는 약 100명입니다. 대필 작가에게 지불할 돈이 없다는 말이지요.”

AI와 인간 모두에게 부족한 부분

챗GPT는 대중이 무료로 사용할 수 있기 때문에 그 가능성과 한계를 쉽게 시험해볼 수 있다.

“특정 주제에 대한 설교 작성”과 같은 단순한 요청은 세부 사항이나 통찰력이 거의 없는 단순한 결과로 이어진다. 이 모델은 답을 요청할 때 자세한 주제, 특정 텍스트 마커(text marker), 개인 일화, 문화적 사례 및 인용과 같은 일반적인 이야기 수단이 포함된 경우 더 정교한 결과를 내놓는다.

즉, 챗GPT의 출력 품질은 그가 수신하는 프롬프트만큼만 좋다는 말이다. 그럼에도 불구하고 몇 가지 중요한 단점이 있다. 챗GPT 및 기타 언어 학습 모델은 때때로 부정확하고 불완전하거나 편향된 정보를 반환한다. 바로 챗GPT의 인터페이스에 명확하게 명시된 약점이다.

아이오와 주 디모인에 있는 그랜드뷰 대학의 신학 및 철학 교수인 켄 선뎃 존스는 기독교 ‘비영리 단체 1517(Christian nonprofit 1517)’의 기사에서 그가 본 다른 결함에 대해 다음과 같이 설명했다.

“AI 챗GPT 목사가 정보의 전달자로서 설교의 기능을 넘어설 수 있다 하더라도 가상의 청중의 영역에서만 작동할 수 있기 때문에 ‘설교 보트(homiletical boat)’로서의 역할은 여전히 놓칠 것입니다.”

그는 이렇게 주장했다. 

“그것이 생산하는 것에는 특별함이 없으며, 따라서 그것에는 ‘당신을 위한’ 내용이 없습니다.”

존스 교수는, AI는 인간이 아니며 본질적으로 삶과 죽음의 무게를 짊어지지 않기 때문에 인간의 영혼을 달래줄 무언가를 예측하거나 창조할 수 없다고 주장한다.

영적 자양분은 최선을 다한 설교에서 나와야 한다. 다른 수사학 기교와 마찬가지로 설교문을 사람이 만들어도 게으르고 진실하지 않으며 비인간적인 결과물로 나타날 수도 있다.

한 트위터 사용자는 챗GPT에 ‘하나님 아버지(daddy God)’, ‘중보기도를 부탁합니다(covet your prayers)’, ‘보호의 울타리(hedge of protection)’, ‘하나님의 도구(instruments of God)’와 같은 영적 용어들이 들어간 기도문을 요청했을 때 나온 결과를 흥미 있게 소개하기도 했다.

그 사용자는 진부한 말과 막연한 충고의 혼란스러운 용어가 뒤섞인 샐러드를 답으로 받았던 것이다.

“AI가 위험하다는 것을 압니다. 이번 주에 기독교 인플루언서로부터 들었을 법한 내용이기 때문입니다.” 

누군가 그녀의 트위터 포스팅에 이렇게 답을 남겼다.

이와 같은 결과들은 일부 종교 전문가들을 또 다른 논리로 이끌었다. 즉, AI 설교에는 본질적으로 인간성이 부족하다는 논리이다. 누군가에게는 실제 인간의 메시지처럼 들릴지는 모르지만 그것 역시 인간성의 필수 요소가 결여되어 있다는 말이다.

“창의적 활동에는 독립성, 통찰력 및 상상력처럼 챗GPT에는 없는 모든 능력이 필요합니다.”

‘유대인 저널(Jewish Journal)’의 차임 스타인메츠는 이렇게 주장했다. 

“그러나 진부한 말과 허풍은 챗GPT만 늘어놓는 것이 아닙니다. 많은 인간들도 그렇게 합니다. 우리 자신의 생각이 챗GPT와 많이 비슷하다는 것도 이상한 일이 아닙니다. 오히려 그것은 인간 결함의 산물입니다. 챗GPT는 실제로 우리가 내는 소리를 앵무새처럼 반복하는 건지도 모릅니다.”

결과물이 무엇이든 간에 AI가 절대 채울 수 없을 것이라는 강력한 종교적 메시지가 있다. 바로 그 메시지를 전달할 실제적 인간이다.

“챗GPT와 같은 언어 모델이 설교와 비슷한 결과물을 만들어낼 수는 있지만, 인간 설교자가 전달하는 생생한 설교의 분위기를 복제할 수는 없다는 점에 주목할 필요가 있습니다.”

챗GPT는 설교 생성 방법을 묻는 답변들에서 이렇게 대답하기도 했다.

“목소리 억양, 감정 표현, 회중과의 상호작용을 포함한 설교의 인간적 요소는 언어 모델이 복제할 수 없는 설교의 핵심 요소입니다.”

[위키리크스한국 = 최석진 기자]

dtpchoi@wikileaks-kr.org


  • 서울특별시 마포구 마포대로 127, 1001호 (공덕동, 풍림빌딩)
  • 대표전화 : 02-702-2677
  • 팩스 : 02-702-1677
  • 청소년보호책임자 : 소정원
  • 법인명 : 위키리크스한국 주식회사
  • 제호 : 위키리크스한국
  • 등록번호 : 서울 아 04701
  • 등록일 : 2013-07-18
  • 발행일 : 2013-07-18
  • 발행인 : 박정규
  • 편집인 : 박찬흥
  • 위키리크스한국은 자체 기사윤리 심의 전문위원제를 운영합니다.
  • 기사윤리 심의 : 박지훈 변호사
  • 위키리크스한국 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재와 복사, 배포 등을 금합니다.
  • Copyright © 2024 위키리크스한국. All rights reserved.
  • [위키리크스한국 보도원칙] 본 매체는 독자와 취재원 등 뉴스 이용자의 권리 보장을 위해 반론이나 정정보도, 추후보도를 요청할 수 있는 창구를 열어두고 있음을 알립니다.
    고충처리 : 02-702-2677 | 메일 : laputa813@wikileaks-kr.org
ND소프트