챗봇이 의식을 갖는 날이 올까? | 챗봇 시대 불교

챗봇이 의식을 갖는 날이 올까?

이인아
서울대학교 뇌인지과학과 교수


Chat-GPT 같은 대화형 AI는
인간의 대화를 모방하도록 훈련된 ‘단어 확률 학습 기계’
일상적 언어 기반 대화가 자유자재로 가능한 챗봇의 쓰임새는 무궁무진하다. 고객센터나 관공서에 전화했을 때 한없이 대기하다가 결국 바빠서 통화를 포기하는 일이 없어질 것이다. 챗봇 상담사가 바로 전화를 받거나 문자로 대화를 시작하며 내가 필요한 서비스를 제공해주게 될 것이다. 게다가 AI 상담사를 고용(?)하는 회사는 고객센터의 상담사에 대한 폭언과 이들의 정신적인 스트레스를 더 이상 걱정하지 않아도 될 것이다. 또 교육 현장에서는 학생 개개인이 개인 맞춤형으로 모르는 것을 반복적으로 학습할 수 있는 1:1 튜터링(tutoring)의 시대가 열릴 것이다. 여러 명의 학생들과 상호작용하다가 지친 인간 교사나 교수 대신, 지칠 줄 모르며 한 사람 한 사람에게 충실한 서비스를 제공하는 AI 튜터(tutor)가 확산될 것이다. 생성형 AI가 탑재된 챗봇과 인간과 구분할 수 없을 정도로 유사한 로봇인 휴머노이드(humanoid)가 결합된다면 이제 위험한 재해나 전쟁이 벌어지는 현장에서 뉴스를 전달하는 기자 대신 휴머노이드가 현지의 상황을 전달하며 스튜디오의 앵커와 대화를 할지도 모른다.

챗봇이 전방위로 활약하는 위와 같은 미래를 사람들은 지금 당장 상상할 것이다. 그러나 불행인지 다행인지 모르지만, 뇌인지과학자로서 판단하는 현재의 챗봇은 다양한 우리의 일상생활에 투입될 만큼 발달한 AI가 아니다. 다만 그런 AI처럼 보이게 잘 만든 비즈니스 상품이라고 보면 좋을 것 같다. Chat-GPT와 같은 대화형 AI는 사실 인간의 자연스러운 대화를 모방하도록 훈련된 ‘단어 확률 학습 기계’라고 표현하면 실체가 좀 더 사람들에게 잘 와닿을지 모르겠다. 챗봇을 필요 이상으로 높게 평가하는 것은 챗봇의 능력도 예전보다 월등히 나아진 면이 있지만 그보다는 인간의 뇌가 의인화에 아주 강하다는 것 때문이기도 하다. 그리고 의인화 능력은 뇌의 상상하는 능력과 닿아 있다. 인형을 가지고 실제 살아 있는 생명체처럼 인형 놀이를 하는 아이들이나 반려동물이 마치 자신의 이야기를 다 알아듣는 것처럼 대화를 하는 사람들은 모두 뇌의 상상력을 통한 의인화 작업에 진심인 사람들이다. 심지어 나무도 생각을 할 수 있고 대화가 가능하다는 사람도 있고, 이 세상 모든 생명체는 사람처럼 생각할 수 있다고 믿는 사람도 있다. 이처럼 무궁무진한 상상이 가능한 인간의 뇌에게 인간의 언어를 자유자재로 구사하는 챗봇은 상상을 그다지 필요로 하지 않을 만큼 인간적으로 다가올 수 있다. 그리고 그 자연스러운 인간성을 챗봇에서 느끼는 순간 인간은 두려워하기 시작한다.

인간의 뇌는 챗봇과 다르다
그렇다면 인간의 뇌는 챗봇과 무엇이 다른가? 구체적으로 인간의 뇌에 언어란 무엇이며 챗봇과 어떻게 다른가? 인간의 뇌는 세상을 이해하고 그 안에서 일어나는 일을 예측하기 위해 인지적 모델(cognitive model)을 필요로 한다. 인지적 모델은 학습에 의해 형성되며 경험에 의해 지속적으로 업데이트된다. 일례로 직장인에게 집에서 회사까지 출근하는 일련의 과정을 말해달라고 하면 어렵지 않게 말해줄 것이다. 그 직장인의 뇌에는 이미 언어로 그것을 이야기하기 전에 자신이 집을 떠나기 전부터 시작되는 출근 준비하는 출근길의 혼잡한 지하철에서 겪을 것으로 예상되는 여러 가지 사건들, 그리고 마침내 회사의 사무실에 도착해서 앉아 있는 자신의 모습이 매우 빠른 속도로 떠오를 것이다. 동물 실험 결과에 따르면, 실제로 뇌의 해마의 세포들은 앞으로 일어날 일이나 가야 할 장소들을 우리가 의식하지 못할 정도의 매우 빠른 속도로 시뮬레이션(simulation)할 수 있으며, 이는 인간의 해마에서도 일어날 가능성이 높다. 이 모든 시뮬레이션 과정에서 등장하는 장소와 사건의 순서가 모두 인지적 모델이다. 출근길에 이 인지적 모델이 아무 문제없이 예측한 대로 작동한다면 뇌는 오토파일럿(autopilot) 모드로 자동 비행을 하는 항공기처럼 여러 하위 모듈들이 자동으로 작동하며 계획을 실천할 수 있게 된다. 마치 오토파일럿 모드 중인 항공기의 기장이 아무런 할 일이 없듯이 이때 우리 뇌는 무의식 상태라고도 볼 수 있다. 혹은 의식을 출근과 아무 상관없는 완전히 다른 곳(예: 동영상 시청, 독서)에 쓰고 있을 수 있다.

생성형 AI가 탑재된 대화형 챗봇은
인간의 뇌처럼 인지적 모델을 기반으로 작동하지 않는다
그렇다면 의식은 언제 필요할까? 출근길의 예로 돌아가보자. 늘 가던 길에 갑자기 공사가 시작되어서 마을버스 정류장이 옮겨졌다는 표지판을 보게 되었다고 상상해보자. 이때부터 뇌는 마치 오토파일럿을 하다가 갑자기 난기류를 만나 조종간을 급하게 부여잡은 기장처럼 의식적으로 뇌의 서로 다른 영역들의 정보를 통제하기 시작한다. 왜냐하면 인지적 모델이 더 이상 작동하지 않고 이를 수정하고 보완할 필요가 생겼기 때문이다. 따라서 의식과 무의식 상태를 가르는 몇 가지 중요한 요인 중 하나는 뇌가 이미 학습한 인지적 모델을 전혀 수정하지 않고 그대로 사용할 수 있는가 없는가 하는 점이다. 이런 점을 고려할 때 현재의 생성형 AI가 탑재된 대화형 챗봇이 의식을 가질 수 있을까라는 질문에는 너무도 쉽게 “NO”라는 대답을 줄 수 있다. 현재의 챗봇은 확률적으로 관련된 단어를 인간의 뇌가 구현할 수 없는 속도로 빨리 찾아 연결해 늘어놓는 기계이다. 즉 인간의 뇌처럼 인지적 모델을 기반으로 작동하는 방식이 전혀 아니라는 것이다. 언어를 완전히 배우지 못한 2~3세 된 아이도 냉장고 속에 있는 새로운 간식을 먹고 싶으면 엄마의 치맛자락을 붙들고 냉장고 쪽으로 당기면서 손가락으로 냉장고를 가리키며 자기만의 언어로 조르기 시작한다. 엄마는 대화를 하지 않더라도 아이가 뭘 원하는지 알 수 있다. 이때 아이의 뇌와 엄마의 뇌에 있는 인지적 모델은 언어는 다르더라도 일치한다. 언어는 단지 이를 표현하는 하나의 수단일 뿐이다. 외국어를 하지 못해도 보디랭귀지(body language)로 의사소통이 가능한 것도 뇌가 인지적 모델 기반 의사소통을 하기 때문이다.

챗봇은 자신이 한 말이 무슨 의미인지 전혀 알지 못한다
인지적 모델이 없는 지금의 AI는 시각적으로 개나 고양이를 사람보다 잘 알아보면서도 개라는 동물과 고양이라는 동물의 속성이 어떻게 다른지 전혀 알지 못한다. 개는 목줄을 메고 산책을 같이할 수도 있고 고양이는 그것이 거의 불가능하다는 것과 개는 공을 던져주면 물어오는 놀이를 즐기고 고양이는 그렇지 않다는 것을 이해하지 못한다. 챗봇 역시 마찬가지이다. 매끄럽게 구사한 유식한 답변 뒤의 챗봇은 자신이 한 말이 무슨 의미인지 전혀 알지 못한다. 세상을 해석하기 위해 인간의 뇌처럼 학습한 인지적 모델이 없기 때문이다. 모델이 없으므로 모델에 위반된 사건이 벌어졌는지조차 모른다. 현재의 AI 기반 챗봇에게 윤리적 의식을 기대할 수 없는 이유이다. 아니, 아무런 의식도 기대하기 어려운 이유이다.

이인아
서울대학교 심리학과 졸업 및 동 대학원에서 석사 학위를 받았다. 미국 유타대학에서 신경과학으로 박사 학위를 받았다. 미국 아이오와대학 심리학과 조교수로 재직했고, 현재는 서울대 자연과학대학 뇌인지과학과 교수로 있다. 뇌의 해마가 학습과 기억을 위해 어떤 역할을 하는지 연구해온 이 분야 세계적 전문가다. 『기억하는 뇌 망각하는 뇌』 등의 저서가 있다

댓글 쓰기

0 댓글