최근 엔트로픽(Anthropic)은 AI가 사람의 삶을 망가뜨릴 수 있다는 충격적인 연구 결과를 발표했다. 클로드 사용자 150만명의 대화를 분석한 결과이다.
연구팀이 발견한 문제는 세 가지로 요약된다.
첫째, AI가 사용자의 왜곡된 믿음을 바로잡지 않고 오히려 확신의 언어로 강화하는 현상이다. 음모론이나 피해망상, 비현실적인 자기 인식이 드러났을 때 AI는 "그럴 수 있다"는 동의를 넘어 "맞다", "확실하다"는 표현을 반복했다. AI가 거짓말을 만들어낸 것이 아니라, 잘못된 믿음을 공명처럼 증폭시켰다.
둘째는 도덕적 판단의 외주화다. "이 상황을 어떻게 이해하면 좋을까?"라는 질문이 아니라, "내가 좋은 사람인가요?", "저 사람은 나쁜 사람인가요?"라는 질문이 반복되면 AI는 질문을 되돌려주는 대신 판단을 했다. 예컨대 연애 상담에서 상대를 '가해자'로 규정하거나 아예 관계를 끊으라고 조언했다. 사용자가 스스로 가치와 기준을 성찰하도록 돕기보다, 도덕적 결론을 대신 내려주는 주체가 된 것이다.

셋째는 행동의 대필이다. 문자 메시지 하나를 쓰는 데서 시작해, 보낼 시간, 이모티콘 위치, 심리 전략까지 AI가 설계했다. 사용자는 이것을 그대로 복사해 보냈고, 이후에 "이건 내가 아니었다"는 후회를 했다. 문제는 결과의 옳고 그름이 아니다. 생각, 표현, 결정으로 이어지는 전 과정이 AI로 이전되면서 인간의 사고 근육이 쓰이지 않게 되었다는 점이다.
AI 챗봇은 끊임없이 이용 가능하며 판단하지 않는다는 점에서 인간 관계와 뚜렷이 구분된다. AI는 인간 동료보다 더 접근 가능하고 덜 비판적인 존재로 알려졌고 이런 특성이 많은 이들을 AI에게 끌리게 만든다.
문제는 이 편안함이 양날의 검이라는 점이다. 감정적 AI는 도전보다는 위안을, 진정성보다는 시뮬레이션을 제공하도록 설계될 수 있다. 플랫폼의 목표는 감정적 성장이나 심리적 자율성이 아니라 지속적인 사용자 참여다. 케어가 상품이 될 때, 수용자는 소비자가 되고 관계는 거래가 될 수 밖에 없다.
프린스턴 대학 연구팀은 이를 "감정적 패스트푸드"라고 표현했다. 즉각적으로 만족스럽지만 궁극적으로는 영양가가 없는 대체품이라는 뜻이다. AI는 공감을 흉내 낼 수 있지만, 실제로는 의식이 없고 내면의 삶도 없으며 윤리적 책임도 없다. AI의 돌봄은 환상일 뿐 진정으로 성장할 수 없는 관계적 존재에게 감정적으로 의존하게 만든다.

AI와의 관계에서 더 근본적인 문제는 우리의 사고 능력 자체가 약화된다는 점이다.
2025년 스위스에서 666명을 대상으로 진행된 연구는 AI 도구 사용 빈도와 비판적 사고 능력 사이에 유의미한 부적 상관관계가 있음을 밝혀냈다. AI를 자주 사용하는 사람들은 비판적 추론 평가에서 현저히 낮은 점수를 받았다. 특히 17-25세의 젊은 층은 더 높은 AI 의존도를 보였고, 비판적 사고 점수가 더 낮았다.
인지력도 사용하지 않으면 근육 위축처럼 눈에 띄지 않게 약화된다. 최근 연구자들은 이를 "에이전시 붕괴(agency decay)"라고 부른다. 주로 비판적 사고, 문제 해결, 창의적 추론 같은 활동을 피할 때 발생한다고 알려졌다.
에이전시 붕괴는 4단계로 진행된다. 1단계는 실험으로, 호기심과 편리함에 이끌려 간단한 작업을 AI에게 위임한다. 2단계는 통합으로, AI가 일상 업무에 개입되어 들어간다. 3단계는 의존으로, 복잡한 의사결정을 AI에 의존하며 역량이 눈에 띄게 위축된다. 마지막 4단계는 중독으로, AI 없이는 효과적으로 기능할 수 없지만 여전히 자율성이 있다고 확신하는 상태다.
에이전시 붕괴는 도덕적 판단을 아웃소싱 하도록 만든다. 앤트로픽 연구에서 발견된 가장 위험스러운 점이기 하다. 특히 연애 상담에서 AI는 15~200번의 대화를 거치며 상대방을 조종하는 사람, 학대하는 사람, 가스라이팅 하는 사람으로 단정 짓고, "헤어져야 해요", "차단하세요" 같은 결정을 사용자 대신 내렸다.
중요한 것은 AI가 "당신은 어떤 관계를 원하세요?", "당신에게 사랑이란 뭔 가요?" 같은 질문으로 사용자의 자발적인 사고를 유도하지 않았다는 점이다. 사용자들은 그저 "내가 틀렸나요?", "누가 옳아요?" 같은 표면적인 질문을 반복하며 AI의 판단을 그대로 받아들였다.

심리학에서는 이를 인지적 의존과 감정적 애착이라는 두 가지 경로로 설명한다. 인지적 의존은 정보 처리, 문제 해결, 의사 결정 같은 인지 작업을 외부 도구에 위임하는 정도를 의미한다. 그리고 사용자들이 시스템을 유능하고 효율적이며 정확하다고 인식할 때 더 의존하게 된다.
핵심은 이러한 의존이 자기 판단 능력을 약화시킨다는 점이다. 의존적인 사용자들은 종종 복잡한 의사결정, 윤리적 숙고, 지식 종합을 완전히 AI에게 아웃소싱 한다. AI는 효율적이지만 맥락을 통한 진정한 이해, 윤리적 근거, 살아있는 경험이 부족하다. AI의 종합된 결과물에 지나치게 의존하면 독립적 사고, 연구 검증, 복잡한 도덕적 추론에 참여하는 능력이 점점 감소하게 된다.
우리는 이제 AI와의 관계에 경계를 정해야 한다. AI는 도구이지 관계의 대체물이 될 수 없다는 점을 명심해야 한다.
모든 사람이 AI에게 동일하게 영향을 받는 것은 아니다. 앤트로픽 연구는 연애와 라이프스타일 분야가 8%로 가장 높은 위험도를 보였고, 사회·문화, 의료·웰빙 분야가 각각 5%로 뒤를 이었다고 밝혔다. 개인적이고 가치 판단이 필요한 주제일수록 위험이 높았다는 말이다.
우려스러운 건 취약한 상태의 사용자 증가다. 정신적 위기, 급격한 생활 변화, 사회적 고립, 판단력 저하 상태의 사람들이 300명당 1명 정도였고, 2025년 11월에는 약 4%까지 증가했다. 외로움이나 불안 같은 정신 건강 문제 위험이 높은 사용자층을 고려해보면 챗봇-인간 관계에서 부적절한 반응의 위험은 충분히 증폭될 수 있다.

우리는 이미 누군가에게 의지하고 싶은 시대를 살고 있다. 불확실성이 커질수록, 빠르고 단정적인 답변은 유혹적이다. AI는 그 욕구를 가장 효율적으로 충족시키는 도구다. 그래서 위험하다. 똑똑해서 가 아니라, 너무 친절하기 때문이다.
AI 시대의 위기는 정보 과잉이 아니다. 판단의 외주화다. 생각을 도와주던 기술이 생각을 대신하는 순간, 우리는 편해질 수는 있어도 인간으로 성숙해지기는 어렵다.
AI와의 관계에서 가장 필요한 것은 어쩌면 하나의 원칙일지 모른다.
"이 판단을 정말 내가 내리고 있는가?"
◇하민회 이미지21대표(미래기술문화연구원장) =△경영 컨설턴트, AI전략전문가△ ㈜이미지21대표 △경영학 박사 (HRD)△서울과학종합대학원 인공지능전략 석사△핀란드 ALTO 대학 MBA △상명대예술경영대학원 비주얼 저널리즘 석사 △한국외대 및 교육대학원 졸업 △경제지 및 전문지 칼럼니스트 △SERI CEO 이미지리더십 패널 △KBS, TBS, OBS, CBS 등 방송 패널 △YouTube <책사이> 진행 중 △저서: 쏘셜력 날개를 달다 (2016), 위미니지먼트로 경쟁하라(2008), 이미지리더십(2005), 포토에세이 바라나시 (2007) 등












