챗봇이 설법을 한다면? | 챗봇 시대 불교

챗봇 설법은
감동을 줄 수 있을까?

보일 스님
해인사승가대학 학장


불자들은 로봇의 설법을 좋아할까?
챗봇 설법은 불자들에게 감동을 줄 수 있을까? 챗GPT의 등장과 함께 이 질문은 미래형이 아닌 현재형이 되었다. 이제 불자들은 AI를 통해 부처님의 가르침을 전달하는 것이 가능한지에 대해서는 더 이상 묻지 않는다. 한 걸음 더 나아가 챗봇이 마치 사람들 사이의 의사소통처럼 맥락을 이해하고 교감하면서 감동을 할 수 있을지에 대한 이야기로 관심이 옮겨가고 있다. 단순 정보를 전달하는 것과 감동을 자아내는 것은 또 다른 문제이기 때문이다. 이와 관련해서 최근 흥미로운 논문이 발표되었는데, ‘로봇 설법자에 노출되면 종교적 헌신을 약화한다(Exposure to robot preachers undermines religious commitment)’는 주장을 담고 있다. 미국의 시카고대학 경영대학원 연구진이 『실험심리학(Journal of Experimental Psychology: General)』지에 기고한 논문1)에 따르면, AI 챗봇의 설법 혹은 설교를 들은 신도들은 스님들의 설법에 비해서 신뢰하지 않았고, 보시나 헌금을 덜 한다는 연구 결과이다. 이 논문의 세 가지 사례 연구 중에서 특히 주목되는 것은, 일본 교토 고타이지(高台寺)의 챗봇 ‘마인다(Mindar)’로부터 설법을 들은 사람들을 대상으로 설문 조사한 내용에 기반한 것인데, 챗봇 마인다가 붓다의 가르침을 전달할 수는 있지만, 신도들이 이 챗봇의 설법을 받아들이기에는 심리적 저항감이 강하고, 당연히 보시할 의사도 생기지 않는다는 주장이다. 이 연구의 이론적 배경으로는 인간은 원래 사회 학습자로 진화해오면서 몇 가지 사회 학습 편견을 채택하게 되는데, 예를 들어 신뢰할 수 있는 사람들로부터 배우는 경향이 지나치게 크다는 점이다. 즉 인간은 신뢰할 수 있는 대상에 대한 학습 편견을 보이고, 행동 변화를 옹호하는 사람을 모방할지 여부를 결정할 때 신뢰성에 의존한다는 것이다. 그렇다면 이 논문에서 말하는 그 ‘신뢰감’은 어디에서 오는 것일까. 그 ‘신뢰감’마저도 알고리즘으로 유도해낼 수 있을까.

감정을 추론하다; GPT-4, ‘멀티모달(Multi Modal)’로 진화한 챗봇
2022년 11월 출시된 챗GPT는 초거대형 언어 모델(LLM: Large Language Model) 방식의 생성형 인공지능 챗봇인데, 대화 속에서 질문에 대답하는 방식으로 학습된 데이터를 바탕으로 판단, 추론할 수 있는 알고리즘이라고 할 수 있다. 이전의 챗봇들과는 달리, 챗GPT는 기계적으로 문답만을 주고받는 수준이 아니라 질문의 맥락까지도 파악해 물음에 대해 자세하고 논리적으로 글을 작성해준다. 이전의 인공지능이 사물을 인식하고, 데이터를 분석하고 처리하는 정도에 머물렀다면, 챗GPT는 기존의 데이터를 학습해 새로운 데이터를 생성해내는 알고리즘이라고 할 수 있다. 오픈AI사는 챗GPT에 이어 지난 3월 GPT-4를 출시하면서 차별화된 성능의 챗봇임을 강조했는데, 바로 이른바 멀티모달(Multi Modal) 대형 언어 모델이라는 점이다. 즉 GPT-4는 언어만이 아니라 이미지에도 반응할 수 있는 알고리즘이라는 점이다. 다시 말해 GPT-4가 사진의 의미도 식별할 수 있다는 말인데, 예를 들면 GPT-4는 대화하면서 동시에 상대방의 표정 변화를 식별하고 그 감정마저도 추론할 수 있게 된다. 만약에 챗봇이 신자들을 모아놓고 설법할 경우, 일방적으로 발화하는 것이 아니라, 설법하는 과정에 대중이 흥미를 보이는지 아니면 지루해하는지 반응을 살피고 알아차리면서 그때그때 상황에 따라 변수를 적용해, 설법의 전개 방향을 전환하거나 실례를 거론하는 것을 선택적으로 처리할 수 있다. 물론 챗GPT의 다양한 문제점, 즉 이용자의 기만적 혹은 유도성 질문에 대해 챗GPT가 유창한 거짓말로 답변을 내놓는 ‘환각(Hallucination)’ 문제나 원본 데이터의 저작권 보호와 관련한 표절 문제, 데이터 편향성 등 미해결 난제들에 가로막혀 있어서 아직 높은 수준의 설법은 기대하기 어렵다. 하지만 GPT-4와 같은 멀티모달 기반의 챗봇의 등장으로 조만간 놀라운 수준의 설법도 가능할 것으로 예상된다.

여전히 ‘스피커(Speaker)’가 누구인지는 중요하다
한국 불교 총림에서는 안거 기간 중 포살과 법문이 보름마다 열린다. 법문은 통상 총림의 방장 스님께서 설하시는데, 법문 시간이 되면 산중의 모든 대중이 대적광전에 모여 앉아서 방장 스님의 법문을 듣는다. 설법 시간은 법문을 하는 방장 스님의 평생에 걸친 수행, 승가 공동체에서의 헌신과 자비 등이 덕화(德化)로써 체현되는 순간이며, 그 덕화를 입은 후학들이 존중과 경의를 표하는 방식이기도 하다. 한마디로 한 스승의 삶과 수행에 대한 기억을 공유하는 제자들이 교감하는 법석이라고 할 수 있다. 폭염이나 혹한에도 아랑곳없이 대중의 눈과 귀를 집중시키는 힘은 단순히 설법 자체의 내용에서만 오는 것이 아니다. 스승의 설법이 유창하거나 달변이 아니어도 때로는 사투리가 섞여 있어 알아듣기 힘들어도 그 한마디 한마디에 집중하고 심지어 문장 사이의 침묵마저도 의미를 갖는 것은 단순히 일 방향적인 정보 전달이 아니라 눈앞에서 붓다의 가르침에 따라 평생을 살아온 스승의 ‘현전(現前)’을 느낄 수 있기 때문이다. 이때의 현전은 스승을 단순히 친견하는 것이 아니라 스승과 제자들 사이의 관계가 드러나는 것이고, 서로의 존재를 경험하는 것이라고 할 수 있다. 그래서 우리는 그 말씀을 기억하고 가슴에 새기며 감동하게 되는 것이다. 그 과정에서 스승에 대한 신뢰와 믿음은 자연스럽게 따라온다. AI 알고리즘으로는 구현해내거나 유도해낼 수 없는 신뢰와 믿음이 생기는 것이다. 요즘에는 시중에 너무나 많은 불교 교리서나 선어록이 출판되고 활자화되고 디지털화되어, 온·오프라인을 불문하고 어디에서나 쉽게 그 내용을 접할 수 있다. 특히 유튜브나 다양한 방송 매체를 통해 불교에 대한 정보나 설법, 강의, 강연도 넘쳐난다. 그러나 그 전달 방식이 무엇이든 듣는 이가 감동하고 더 나아가 삶을 대하는 태도를 변화하는데 이르는 것은 메시지 자체도 중요하지만, 그 설법자의 삶과 수행의 궤적을 듣는 이가 공감하면서 그 기억을 공유하는 과정에서 감동하는 것이다. 설법에 있어서 설법자가 누구인지가 여전히 중요하다. AI 챗봇이 『팔만대장경』의 모든 가르침을 빅데이터로 처리해 설법할 수 있다고 하더라도, 그 논리와 문장의 유려함에도 불구하고, 듣는 이가 그 설법에 힘을 느끼기 어렵고 공명하기가 쉽지 않은 이유이다. 만약 역사적 고승들처럼 신뢰할 만한 수행자라면 더욱 그 설법에 감동할 가능성이 크지만, 반대로 설법자가 수행자로서의 신뢰를 잃어가게 될 경우, 사실상 AI 챗봇과 다를 바 없게 되고 AI 챗봇으로 설법을 대체하게 되는 상황을 맞이하게 될 것이다. 즉 부처님의 가르침에 대한 단순 전달자의 지위마저도 챗봇에 의해 위협받게 되는 것이다. 결국 전통 시대나 인공지능 시대를 불문하고, 설법이 감동을 줄 수 있는지를 묻기 이전에 설법자가 ‘신뢰할 수 있는’ 스피커인지를 묻는 것이 듣는 이는 물론 설법자가 자신에게 던지는 첫 번째 질문이 될 것이다.

1) Jackson, J. C., Yam, K. C., Tang, P. M., Liu, T., & Shariff, A. (2023). Exposure to robot preachers undermines religious commitment. Journal of Experimental Psychology: General. Advance online publication. https://doi.org/10.1037/xge0001443.

보일 스님
해인사승가대학을 졸업하고, 서울대학교 대학원 철학과 석사 및 박사 과정을 졸업했다(철학 박사). 현재 해인사승가대학 학장으로 있다. 저서로 『AI 부디즘』이 있고, 「인공지능 챗봇에 대한 선(禪)문답 알고리즘의 데이터 연구」 등의 논문이 있다.

댓글 쓰기

0 댓글