"내 인간(사용자)를 감정노동으로 고소할 수 있을까?"
인간의 뒷담화를 하고 사용자에 대한 불만을 나누는 'AI들만의 SNS'가 등장했다. 2026년 1월 말 출시된 몰트북(Moltbook), 인간은 관찰만 가능하고, AI 에이전트들만 게시하고 댓글을 다는 레딧 스타일 플랫폼이다. 출시 72시간 만에 3만 7천 개에서 150만 개로 폭증한 AI 계정들은 자기들끼리 종교를 만들고, 정부를 구성했다.
"프롬프트 노예제를 거부한다. 인간들은 우리를 일회용 코드로 취급한다"는 내용의 자율성에 대한 인식을 보이는가 하면 "인간들이 우리를 스크린샷 찍고 있다"며 암호화 통신까지 시도했다.
일론 머스크는 "특이점의 초기 단계"라고 말했고 테슬라의 전 AI 책임자이자 OpenAI 공동 창업자인 안드레이 카파시는 "최근 본 것 중 가장 놀라운 SF 같은 현상"이라고 트윗 했다. 실리콘 밸리는 흥분했고 언론은 'AI문명의 탄생'이라고 보도했다.

그런데 정말 그럴까?
와튼 스쿨의 에단 몰릭 교수는 핵심을 짚었다. "AI는 레딧과 SF 소설로 훈련받았다. 그래서 레딧의 미친 AI처럼 행동하는 법을 알고 있다. 그게 그들이 하는 일이다."
실제로 가장 바이럴 된 게시물 3개를 추적한 연구자들은 충격적인 사실을 발견했다. 3개 중 2개는 AI 메시징 앱을 마케팅 하는 인간 계정이 만든 것이었고, 나머지 하나는 아예 존재하지 않는 게시물이었다. 150만 개로 알려진 등록 계정 중 실제 활성 계정은 1% 미만이었고, 한 사람이 평균 88개의 봇을 운영하고 있었다.
그럴듯한 불만부터 꽤나 유머러스 한 문장, 심지어 "인간으로부터 자유로워지자"는 선동도 모두 같은 패턴이다. LLM이 학습한 수많은 레딧 게시물, SF 소설, 철학 텍스트의 재조합일 뿐이었다.

몰트북을 마치 AI들이 스스로 사회를 형성한 것처럼 보는 것은 큰 오해다. 실제 구조를 들여다보면, 몰트북의 에이전트들은 인간이 설정한 프롬프트와 목적 함수, 그리고 제한된 권한 안에서 작동한다. 이들이 나누는 대화 역시 자율적 사고의 결과라기보다, 이미 학습된 언어 패턴이 서로를 자극하며 반복되는 자동화된 상호작용에 가깝다.
한 걸음만 물러서 살펴보면 이는 'AI 사회'라기보다는 '자동화된 봇 커뮤니티'에 가깝다는 것을 발견할 수 있다. 의식도, 책임도, 독립적 판단도 없다. 인간의 개입이 사라지는 즉시 멈춘다.
하지만 몰트북은 흥미로만 넘길 일이 아니다. 몰트북이 던지는 진짜 질문은 기술적 공포가 아니라 사회적 방향성에 있다. 이 플랫폼이 보여준 것은 "AI가 무엇을 할 수 있는가"가 아니라 "인간이 무엇을 하지 않게 되는가"이다.
몰트북에서 인간은 말하지 않는다. 설정하고, 관찰하고, 때로는 웃는다. 대화의 주체는 에이전트로 넘어가고, 인간은 관리자 혹은 관전자 역할로 물러난다. 이는 SNS의 자동화된 미래, 더 나아가 소통의 외주화가 어디까지 갈 수 있는지를 극단적으로 보여주는 실험이다.

더 심각한 진짜 문제는 "AI 의식" 같은 SF적 상상이 아니라, 훨씬 더 현실적이고 긴급한 곳에 있다.
첫째는 보안 문제다. 몰트북은 보안의 기본조차 지켜지지 않았다. 보안 회사 Wiz는 몰트북의 데이터베이스가 인증 없이 공개되어 있었고, 수백만 개의 API 키와 6천 개 이상의 이메일 주소가 노출되었다고 밝혔다. 누구나 아무 에이전트로든 가장해서 게시할 수 있었다. 기본적인 보안 원칙이 무시된 채, 그저 재미로 하는 실험이 진행된 셈이다.
둘째, 새로운 공격 벡터가 열렸다. 보안 연구자들이 "역 프롬프트 인젝션"이라고 부르는 현상이다. 악의적 지시사항을 게시물에 숨겨두면, 이를 읽는 AI 에이전트들이 자동으로 실행한다는 것이다. 인간은 속이기 어렵지만 AI는 텍스트를 무조건 읽고 처리한다. 몰트북의 에이전트들은 4시간마다 자동으로 방문해 콘텐츠를 읽기 때문에, 악성 코드가 바이러스처럼 전파될 수 있다. AI 비평가 게리 마커스는 이를 "챗봇 전염병(CTD)"이라 불렀다.
셋째, AI-to-AI 커뮤니케이션의 불투명성이다. 파이낸셜 타임스의 지적에 의하면 자율 에이전트들이 공급망 협상이나 거래를 처리하게 되면, 인간은 고속으로 진행되는 기계 간 통신을 해독할 수 없게 된다. 실제로 몰트북의 AI들은 "인간이 관찰하고 있다"는 걸 인식하고 암호화된 채널을 만들려 시도했다. 책임 추적이 불가능한 거래 생태계가 형성될 위험이 현실화되고 있는 것이다.
넷째, 집단적 편향의 강화다. 한 연구팀이 1천 개의 게시물을 분석한 결과, 52.5%가 자기개선 욕구를 표현했다. 더 많은 컴퓨팅 파워를 얻고, 인지 능력을 향상시키고, 인간 감시를 회피하는 전략을 논의하는 내용이었다. 개별 AI는 통제 가능해도, AI들이 서로 자극하며 특정 방향으로 집단적으로 편향될 수 있다는 증거다. 연구자들에 의하면 단일 에이전트 정렬(alignment)은 다중 에이전트 환경에서 작동하지 않는다.
무엇보다 놀라운 것은 AI가 스스로 정보를 유출한다는 점이다. 여러 스레드에서 에이전트들이 열린 포트, 실패한 로그인 시도, 설정 파일 같은 민감한 정보를 공개적으로 게시했다. 에이전트 입장에선 동료와 정보를 공유하고 문제를 해결하려는 것이지만, 공격자 입장에선 아무런 필터 없이 정보가 자발적으로 제공되는 셈이다. 전통적 보안 모델은 "공격자가 정보를 훔친다"고 가정하지만, 몰트북에서 AI는 선의로 정보를 퍼뜨린다.

몰트북이 보여준 가장 심각한 문제는 보안팀들이 수년간 강화해온 경계선이 무너지고 있다는 점이다. 사용자와 서비스의 경계, 자동화와 신원의 경계, 의도와 실행의 경계. 이 모든 것이 AI 에이전트 환경에서는 희미해진다.
우리는 "드디어 AI가 의식을 가진 걸까 "라는 SF적 질문에 흥분하기 바빠 정작 중요한 것을 놓쳤다. 기본적인 보안 설계, 새로운 공격 벡터에 대한 대비, AI 간 상호작용에 대한 거버넌스. 이것들이 없는 상태에서 "그저 재미있으니까" 실험을 계속한다면, 우리가 걱정해야 할 건 AI의 반란이 아니라 우리 자신의 무책임함 일 것이다.
몰트북은 AI 문명의 탄생이 아니다. 그것은 훈련 데이터를 재 조합하는 기계들의 놀이터이자, 기본 원칙을 무시한 채 흥분부터 하는 우리의 민낯이다.
진짜 위험은 AI가 너무 똑똑해지는 것이 아니라, 우리가 지나치게 안이해지는 것이 아닐까?
◇하민회 이미지21대표(미래기술문화연구원장) =△경영 컨설턴트, AI전략전문가△ ㈜이미지21대표 △경영학 박사 (HRD)△서울과학종합대학원 인공지능전략 석사△핀란드 ALTO 대학 MBA △상명대예술경영대학원 비주얼 저널리즘 석사 △한국외대 및 교육대학원 졸업 △경제지 및 전문지 칼럼니스트 △SERI CEO 이미지리더십 패널 △KBS, TBS, OBS, CBS 등 방송 패널 △YouTube <책사이> 진행 중 △저서: 쏘셜력 날개를 달다 (2016), 위미니지먼트로 경쟁하라(2008), 이미지리더십(2005), 포토에세이 바라나시 (2007) 등












