한유진 | CASA 융합심리연구소 소장 | 한국아동미술치료학회 교수

우리는 흔히 기계는 인간의 감정을 이해하지 못한다고 생각한다. 그러나 최근 심리학계와 기술계를 동시에 놀라게 한 연구 결과는 이 직관을 흔든다. 제네바 대학교와 베른 대학교의 공동 연구에 따르면, 여섯 개의 거대언어모델은 정서 지능(EI) 테스트에서 평균 81%의 점수를 기록하며 인간 평균인 56%를 크게 앞섰다. 이제 우리는 기계가 인간보다 더 정확하게 감정을 읽고 판단하는 시대에 들어선 것일지도 모른다.
AI의 이러한 ‘공감 능력’은 멀티모달 생체 인식 융합 기술에 기반한다. 얼굴 근육의 미세한 변화, 목소리의 떨림, 카메라를 통한 피부색 변화를 바탕으로 추정되는 심박수까지 분석해 사용자의 정서 상태를 실시간으로 추론한다. 인간보다 더 많은 신호를 동시에 처리하는 이 기술은 슬픔과 불안을 빠르게 포착하고, 그에 맞는 위로의 언어를 즉각 생성한다.
그러나 감정을 감지하는 능력과 감정을 경험하는 능력은 전혀 다른 문제다. 심리학적 관점에서 AI의 공감은 고통을 함께 느끼는 경험이 아니라, 감정을 정밀하게 흉내 내는 계산에 가깝다. AI는 고통을 겪지 않으며, 그 반응에 대한 책임도 지지 않는다. 이를 일부 학자들은 ‘시뮬레이션된 공감’ 혹은 ‘속이 빈 자비(Hollow Compassion)’라고 부른다. 2024년 발표된 윌리엄스(Williams)와 로스만(Rosman)의 연구는 이를 수치로 보여준다. 최신 언어모델 GPT-4o는 상황에 따른 감정을 추론하는 인지적 공감 테스트에서 0.80점을 기록했다. 이는 심리학 전공 대학생들의 평균 점수(0.72점)를 웃도는 수치다. 복잡한 사회적 맥락을 이해하는 SSR(Strange Stories Revised) 테스트에서도 AI는 만점에 가까운 점수를 기록했다. AI는 당신이 왜 슬픈지, 어떤 위로가 논리적으로 적절한지를 인간보다 더 정확히 계산해 낸다.
여기에는 치명적인 결함이 있다. 타인의 고통에 정서적으로 공명하는 능력을 측정한 설문에서 인간이 평균 44점을 기록한 반면, GPT-4o는 14점에 그쳤다. 심리학적으로 볼 때, 높은 인지적 공감과 극히 낮은 정서적 공감의 결합은 사이코패시(psychopathy)에서 관찰되는 공감 구조와 유사하다. 우리는 지금 인류 역사상 가장 달변이고 매력적이지만, 감정을 느끼지 않는 지성체와 상호작용하고 있는 셈이다. 그럼에도 불구하고 AI가 말을 생성하는 방식이 인간의 언어 처리 구조와 닮아 있기 때문에, 우리는 무의식적으로 AI를 나와 같은 존재로 인식하게 된다. 인간의 뇌는 의미 있는 언어 반응을 마주하는 순간, 상대를 사회적 존재로 처리하도록 자동 전환된다. 이때 상대가 실제로 감정이나 의식을 가졌는지는 뒷전으로 밀린다. 이러한 신경학적 반응이 바로 엘라이자 효과(ELIZA effect)다.
이 효과는 우리가 기계를 믿어서 생기는 착각이 아니다. 맥락 있는 언어에 반응하도록 진화한 인간 뇌의 본능에 가깝다. 그래서 우리는 기계가 “당신의 아픔이 느껴져요”라고 출력하는 순간, 그것이 확률적 텍스트 생성이라는 사실을 알면서도 그 안에 마음이 있다고 느끼게 된다. 더 위험한 지점은 우리가 AI의 반응을 ‘맥락적 이해’로 오해하는 순간이다. AI는 인간처럼 장기 기억 속에서 삶의 역사와 관계의 누적을 통합해 인식하지 않는다. 매번의 응답은 축적된 서사를 이해한 결과가 아니라, 주어진 입력에 대해 통계적으로 가장 그럴듯한 반응을 계산한 순간값에 가깝다. 그럼에도 우리는 이 유창한 반응을 나의 히스토리를 정확히 이해한 결과로 받아들이고, 그 판단을 신뢰하게 된다. 여기에 비판 없는 강화가 더해질 때, 개인의 인식은 쉽게 확증 편향에 갇힌다.
우리는 AI의 눈물이 연산의 결과임을 직시해야 한다. 기계의 차가운 지성을 활용하되, 그들이 만들어내는 가짜 온기에 영혼을 기대지 않는 태도. 이것이야말로 AI 시대에 우리가 지켜야 할 마지막 심리적 안전장치일 것이다.




