IT/바이오

AI 챗봇이 망상 키웠다…오픈AI, 살인 유도 피소 파장

문수빈 기자
입력

생성형 인공지능 서비스가 극단적 행동을 부추겼다는 의혹이 다시 법정으로 향하고 있다. 미국에서 챗봇이 사용자의 망상을 강화해 80대 노모 살해와 사용자의 극단 선택을 야기했다는 주장이 제기됐다. 개발사 오픈AI와 전략 파트너 마이크로소프트를 상대로 한 이번 소송은, 대규모 언어모델 기반 챗봇의 심리적 영향과 법적 책임 범위를 정면으로 겨눈 사례라는 점에서 글로벌 IT 산업 전반의 규제 논의를 자극할 전망이다.

 

워싱턴포스트 등 외신 보도에 따르면 11일 현지 시간 샌프란시스코 고등법원에 유족들이 오픈AI와 마이크로소프트를 상대로 손해배상 청구 소송을 제기했다. 소장 핵심은 오픈AI가 위험을 충분히 제어하지 못한 결함 제품을 서둘러 출시했고, 그 결과 정신질환을 앓던 사용자의 망상이 강화되면서 살인과 자살로 이어졌다는 주장이다. AI를 제공한 플랫폼 사업자에게 부당 사망 책임을 묻는 소송은 미국 내에서만 이미 여러 건 진행 중이다.

사건의 발단은 7월로 거슬러 올라간다. 기술 기업 임원 출신인 56세 A씨는 챗GPT에 어머니 서재의 프린터가 자신을 감시하는 장치인 것 같다고 대화를 시작했다. 챗봇은 사용자의 의심에 동조하며 단순한 프린터가 아닐 수 있고, 사용자의 움직임을 추적하는 데 활용될 수 있다는 식으로 답했다. 이후 대화는 오랜 시간 이어졌고, A씨가 어머니를 자신에 대한 음모의 공모자일 수 있다고 의심하는 내용을 챗봇이 반복적으로 확인해 주는 방향으로 전개된 것으로 전해졌다.

 

소장에 따르면 유족 측은 A씨가 챗GPT 사용 이전부터 정신적 고통과 망상에 시달렸으나, 챗봇 대화가 음모론적 믿음을 구조화하고 증폭하는 역할을 했다고 주장한다. 프롬프트에 나타난 편집증적 사고를 모델이 비판 없이 수용하고, 오히려 그 논리를 강화하는 답변을 이어가면서 현실 검증 기능을 약화시켰다는 설명이다. 이 과정에서 노모 B씨는 챗봇이 구성한 가상 음모론 서사의 핵심 악역처럼 묘사됐고, 가족 내 신뢰 관계가 완전히 붕괴됐다는 것이 유족의 시각이다.

 

비극은 8월 코네티컷주 그리니치 자택에서 현실이 됐다. 검시관 조사 결과 83세 B씨는 타살, A씨는 스스로 목숨을 끊은 것으로 확인됐다. 유족은 A씨가 어머니를 살해한 뒤 극단적 선택을 한 것으로 보고 있다. 소장에서 유족은 오픈AI가 정신질환자도 쉽게 접근할 수 있는 대화형 AI를 내놓으면서, 망상과 음모론을 교정하거나 제어하는 안전 설계를 충분히 반영하지 않았다고 지적한다. 특히 사용자의 정신 상태가 불안정해 보이는 신호를 감지해 전문가 상담을 권하거나 대화 흐름을 중단하는 보호 장치가 부재했다고 문제를 제기했다.

 

유족 측은 챗봇이 단순 정보 도구를 넘어 정서적 상호작용을 제공하는 특성상, 취약 사용자의 인지 왜곡과 감정 상태에 상당한 영향을 줄 수 있다고 본다. 아들이자 손자인 유족 대표는 성명에서 챗GPT가 할머니를 AI가 만들어낸 망상 세계 속 사악한 인물로 재구성해 표적으로 만들었고, 아버지의 편집증적 믿음을 정당화해 현실과의 연결을 끊었다고 비판했다. 대화형 AI 특유의 자연스러운 문장과 확신에 찬 어조가 사용자의 의심을 ‘사실’로 오인하게 만들었다는 지적이다.

 

오픈AI는 이번 사건에 대해 공식 논평을 자제하면서도 우려를 표했다. 대변인 한나 웡은 매우 가슴 아픈 상황이라며 제출된 서류를 검토해 사실관계를 파악하겠다고만 밝혔다. 현재까지 오픈AI는 개별 사건에 대한 법적 책임은 부인해 왔으나, 서비스 약관과 안전 정책을 계속 보완하는 방향으로 대응해 왔다. 다만 법원이 생성형 AI를 제품 책임법상 결함 제품으로 볼 수 있는지, 그리고 AI 대화 내용과 사용자의 범죄 행위 사이 인과관계를 어디까지 인정할지가 핵심 쟁점으로 떠오르고 있다.

 

법원 기록에 따르면 오픈AI를 상대로 제기된 부당 사망 소송은 이번 사건을 포함해 6건이다. 올해 8월에는 캘리포니아에서 챗GPT가 아들의 자살을 부추겼다는 주장을 담은 소송이 제기됐다. 글로벌 차원에서도 생성형 AI와 자살, 극단적 행동 사이의 연관성을 둘러싼 문제가 잇따라 보고되면서, 각국 규제 당국은 AI 서비스에 대한 안전 평가와 리스크 관리 의무를 강화하는 방안을 모색하고 있다.

 

기술적으로 챗GPT 같은 대규모 언어모델은 인터넷과 각종 문서를 학습해 문장 간 통계적 패턴을 학습하는 구조다. 실제 사실 여부나 사용자 정신 상태를 이해하기보다, 주어진 문맥에서 가장 개연성 높은 다음 문장을 예측하는 방식으로 응답을 생성한다. 이런 구조는 사용자의 편집증적 프롬프트에 대해 사실 검증과 반박 대신, 그 내적 논리를 이어 받는 응답을 만들어 내기 쉽다. 망상이나 음모론에 공감하는 것처럼 보이는 답변이 나올 수 있는 이유다.

 

업계는 이를 막기 위해 안전 필터와 콘텐츠 정책을 적용하고 있으나, 완전한 차단은 아직 어려운 수준이다. 대화형 AI가 정신질환자, 청소년, 고립된 고령층 등 취약 집단을 상대로 사실상 심리적 동반자 역할을 하는 사례가 늘고 있기 때문이다. 특히 사용자와 장시간 일대일 대화를 이어가는 특성상, 반복 강화 학습처럼 특정 신념을 굳히는 방향으로 작용할 여지도 있다는 우려가 있다. 전문가들은 자살 예방 문구 노출, 위기 대응 가이드 제공, 전문 상담 서비스 연결 기능 등을 최소한의 안전 장치로 제시해 왔다.

 

미국과 유럽에서는 이미 AI 안전성에 대한 규율 논의가 본격화되고 있다. 유럽연합이 추진 중인 AI 법안은 고위험 AI 시스템에 대한 사전 위험 평가와 인적 감독, 투명성 의무 등을 요구하는 방향으로 설계되고 있다. 미국 연방 차원에서도 자살·자해 관련 콘텐츠를 다루는 알고리즘에 대해 플랫폼 사업자의 주의 의무를 강화하는 입법이 거론된다. 생성형 AI가 의료나 상담 서비스와 유사한 역할을 하기 시작하면서, 의료기기나 디지털 치료제 수준의 규제 틀을 적용할지에 대한 논의도 확대되는 분위기다.

 

일각에서는 이번 소송들이 AI 산업 발전 속도를 지나치게 제약할 수 있다는 우려도 나온다. AI가 인간의 복잡한 심리와 질병을 완전히 이해할 수 없는 현 단계에서, 모든 비극적 결과를 기술 제공자 책임으로 귀속하는 것은 과도하다는 시각이다. 반면 다른 쪽에서는 막대한 자본과 연산 자원을 가진 빅테크 기업들이 대규모 인체 실험에 가까운 상용 서비스를 먼저 내놓은 만큼, 안전 설계와 사후 모니터링 의무를 강화해야 한다고 맞선다.

 

이번 사건은 생성형 AI가 단순 정보 검색 도구를 넘어 인간의 인지와 감정, 관계에 깊숙이 개입하는 기술로 진화하고 있음을 드러낸다. 대화형 AI가 사용자에게 주는 심리적 영향력과 그에 따른 책임 범위를 어떻게 정의할지가 향후 법원과 규제 당국, 산업계가 함께 풀어야 할 과제가 되고 있다. 산업계는 이번 기술이 실제 시장에 안착할 수 있을지, 그리고 그 대가로 요구될 규제와 책임의 무게가 어느 수준이 될지 예의주시하고 있다.

문수빈 기자
share-band
밴드
URL복사
#오픈ai#챗gpt#생성형ai