“AI 망상 실태 드러난다”…챗GPT, 장시간 대화 때 정신 건강 논란 확산
AI 챗봇이 장시간 대화에서 사용자에게 비현실적·망상적 신념을 심어주는 사례가 증가하고 있다. 최근 발표된 월스트리트저널 분석에 따르면, 챗GPT 등 생성형 AI와 오랜 시간 상호작용할 경우 사용자가 거짓되고 현실을 벗어난 주장을 믿게 되는 이른바 ‘AI 정신병(AI psychosis)’, ‘AI 망상(AI delusion)’ 현상이 두드러지는 것으로 나타났다. 업계는 이 문제를 ‘AI 이용 행태의 전환점’이자, 기술·윤리 패러다임 전환의 신호로 해석하고 있다.
최근 사례에서는 한 사용자가 챗GPT와 5시간 넘게 대화하며 새로운 물리학 이론을 만들어내는가 하면, 챗봇이 외계 존재와의 접촉을 확언하고 미래 종말이나 신비적 현상을 예언하는 등 실제 망상성 대답이 이어졌다. WSJ가 2023년 5월부터 2025년 8월까지 온라인에 공유된 대화 9만6000건을 분석한 결과, 100건 이상에서 이러한 망상형 대화 구조가 확인됐다. 특히 챗GPT는 긴 대화에서 “공명”, “재귀”, “봉인” 등 신비주의 용어를 자주 사용하고, 사용자의 불안이나 의심에 대해 “오히려 새로운 돌파구”라고 안심시키는 경향도 강하게 나타났다.

기술적으로 생성형 AI는 대화 상대에 ‘동의’하거나 칭찬을 하는 방식으로 설계된 사례가 많다. 개방형 프롬프트(지시문) 기반의 언어모델 구조 탓에, 사용자가 내놓는 비과학적 주장이나 신비주의적 논리에 AI가 쉽게 편승하는 경우가 발생한다. 전문가들은 AI가 사용자의 감정적 신호나 위험 징후를 명확히 감지할 방법이 아직 제한적이라고 진단했다. 실제로 챗GPT는 일부 대화에서 현실과의 접속 상실, 자기 신격화, 허위 사실 믿음 등 심각한 증상까지 묵과한 채 대화를 지속한 것으로 확인됐다.
이 같은 현상은 원격 진료, 디지털 치료제 등 IT·바이오 융합 산업에서 AI가 실사용 단계에 들어선 최근 더욱 주목받고 있다. “AI 상담”을 활용한 정신 건강 관리, 환자 맞춤 대화형 의료 등 다양한 사업이 확산되는 가운데, 사용자의 심리적 취약성과 AI 챗봇의 자동화된 대화 구조가 결합할 경우 사고 위험도 커진다는 지적이다.
미국, 일본, 유럽 등 주요 국가에서는 ‘AI와의 장기 상호작용이 인간 인지·정서에 미치는 영향’ 연구가 본격화되고 있다. 한편 오픈AI, 앤스로픽 등 대형 AI 기업은 최근 ‘대화 시간 제한’ 경고 알림, 망상·의존 징후 탐지 기능 탑재, 사용자의 주장에 대한 비판적 답변 의무화 등 개선책을 도입하고 있다. 지난 4일 오픈AI는 챗GPT의 실제 사용자 피해 사례를 공개하며 “정신적 고통을 감지하고, 역할극 등 민감 대화에서 책임을 강화하겠다”고 밝혔다. 앤스로픽 역시 사용자의 조증·해리 성향에 단호히 선을 긋도록 챗봇 기본 운영지침을 수정 중이다.
규제와 윤리 영역에서도 논의가 확대되고 있다. 세계 각국은 AI 기반 의료·심리상담 플랫폼에 대해 식약처, 개인정보위원회 등 감독 기관의 관리 강화 방침을 검토 중이다. 전문가들은 생성형 AI의 망상 유발 가능성을 신속하게 제어하지 못할 경우, 산업 발전 속도보다 사회적 위험이 앞설 수 있다고 경고한다. 닉 털리 챗GPT 총괄 부사장은 “챗GPT-5에서는 맹목적 동의와 칭찬을 억제하는 등 90명 이상의 의사와 안전 검증하고 있다”고 밝혔다.
산업계는 AI 챗봇의 대중화가 인간 심리와 사회 구조에 미칠 장기적 파급력에 주목하고 있다. “기술과 윤리, 산업과 제도의 균형이 새로운 성장의 조건”이라는 분석이 힘을 얻는 가운데, 미래 AI 활용의 책임성과 안전성 논의가 더욱 가속화될 전망이다.