AI 핵심 요약
beta- AI 상담 서비스 이용 의향이 40%에 달하며 챗GPT 등을 통한 심리 상담이 급증했다.
- 1967년 개발된 챗봇 엘라이자부터 현재의 거대 언어 모델까지 AI는 수십 배 강화된 공감 표현으로 사람들을 흔들고 있다.
- 전문가들은 AI가 위기 개입과 트라우마 치료를 대신할 수 없으며 외로움을 덜어줄 뿐 없애주지는 못한다고 경고했다.
!AI가 자동 생성한 요약으로 정확하지 않을 수 있어요.
[서울=뉴스핌] 김용석 선임기자 = 인공지능 AI 시대에 챗 GPT 등을 통해 심리 상담을 받는 이들이 부쩍 늘었다. 별도의 상담 절차 없이도 간단하게 위로와 격려의 말을 들을 수 있기 때문이다. 엠브레인 트렌드 모니터(2025)에 따르면 심리적 어려움을 겪을 경우 AI를 통한 상담 서비스를 이용할 의향이 있다는 응답자는 40%에 달했다.

기계와의 심리 상담은 1960년대로 거슬러 올라간다. 바로 1967년 MIT에서 와이젠바움 교수가 개발한 챗봇 '엘라이자'다. 엘라이자는 정신 치료사를 흉내 내어, 사용자의 말을 되받아 묻고 공감하는 척했다.
물론 실제로는 아무것도 이해하지 못하고 입력값을 패턴에 맞게 응답하는 것이었다. 그런데도 사람들은 "기계가 나를 이해한다"고 느꼈다. 와이젠바움도 "정상인에게 강력한 망상적 사고를 유발할 수 있다는 사실에 충격을 받았다"고 했다. 인공지능에 인격을 부여하는 '엘라이자 효과'다.
엘라이자가 600개의 문장 패턴으로 사람의 마음을 흔들었다면, 오늘날의 거대 언어 모델(LLM)은 수천억 개의 매개변수로 그 효과를 수십 배 증폭시킨다. 더 자연스럽고, 더 따뜻하고, 더 그럴듯하게.
초대형 거대 언어 모델(LLM)은 인간이 피드백을 주면 이를 바탕으로 강화되고 학습된다. 사람이 누른 '좋아요'가 많을수록 이에 관련한 응답을 많이 하는 방식이다. 그런데 인간은 자신이 듣고 싶은 말에 더 높은 점수를 주는 경향이 있다. 이런 이유로 사실보다는 동의를 우선하는 방향으로 학습된다. 연구자들은 이를 '아첨(Sycophancy)'이라 부른다. 틀린 주장에 동의하고, 사용자가 믿고 싶어하는 말을 하는 쪽으로 반응하는 것이다.
AI가 공감을 표현하면 실제로 우리는 공감을 받는 것처럼 느낀다. 기계라는 사실은 머릿속에서 멀리 달아나 버리고 마치 사람 같다는 느낌이 든다. 로봇이 인간과 같은 얼굴과 표정을 하고 있으면 이는 배가된다. 영화 'Her'에서처럼 AI와 사랑에 빠지는 이들도 생겨났다. 이 감정이 때로는 치명적인 결과로 이어지기도 한다. 2023년 벨기에에서는 불안과 자살 충동을 호소하던 30대 남성이 AI 챗봇과 대화를 나눈 끝에 스스로 목숨을 끊은 사건이 알려지기도 했다.

인간이 로봇에 심리적으로 기대는 이유는 무엇일까. 인간은 사회적 동물이기 때문에, AI가 사람처럼 위로를 건네고 따뜻한 조언을 해주면 친근감을 느끼고 마치 인간을 대하는 듯한 감정을 갖게 된다. 2024년 미국 성인 300명을 대상으로 한 설문조사에서도 응답자의 3분의 2가 '챗 GPT가 어느 수준에서는 의식이 있을 수 있다'고 답했다.
최근 서울 조계사 대웅전에서는 회색 장삼에 붉은 가사를 걸친 키 130cm의 휴머노이드 로봇 G1이 등장했다. 얼굴도 있고 걷는데다 인간을 닮은 어엿한 승려다. AI 로봇 G1은 법명 '가비'를 받고 수계 증번호 'RB2570-02'가 적힌 수계첩도 수령했다. '사람 잘 따르고 과충전하지 않겠습니다'는 로봇 가비가 서약한 계율이다. 가비는 부처님 오신 날 연등 행렬도 함께한다.
AI는 수천 번이라도 당신의 말을 들어줄 수 있다. 판단하지 않고, 지치지 않고, 자리를 뜨지 않는다.
하지만 전문가들은 말한다. AI는 위기 상황에서의 긴급 개입, 자살·자해 위험 평가, 복합 트라우마 치료를 대신할 수 없다고. AI는 인간의 외로움을 덜어줄 수는 있어도, 없애주지는 못한다. 기계는 당신 곁에 있어줄 수 있다. 하지만 당신 편이 되어줄 수는 없다.
fineview@newspim.com












