IT/바이오

“AI 대화서 드러난 위험 신호”…오픈AI, GPT-5 정신 건강 대응 강화

최동현 기자
입력

인공지능 챗봇 챗GPT 등 생성형 AI 서비스에서 정신 질환 위험을 암시하는 대화가 포착되고 있다. 글로벌 이용자 8억 명을 돌파한 챗GPT에서 단 1주일 만에 50만 명 이상이 우울·조울증 등 심각한 정신 건강 문제의 징후를 보였고, 약 120만 명은 극단적 선택을 표현한 것으로 분석됐다. IT업계와 의료계는 이용자 규모에 비례한 사회적 영향력과 AI 대화가 정신 건강에 미치는 효과를 주목하고 있다. 전문가들은 이번 공개를 챗봇 안전성 논의의 분기점으로 해석하고 있다.

 

오픈AI는 최근 내부 분석 결과, 1주일간 챗GPT 이용자 중 0.07%가 정신 건강 위험 징후를 드러냈다고 밝혔다. 이를 전체 주간 사용자 규모로 환산하면 약 56만 명이다. 또 극단적 선택을 암시하는 표현이나 계획을 내비친 이용자는 0.15%로, 약 120만 명에 달했다. 오픈AI는 “정신 건강 관련 대화는 대규모 사회에서 불가피한 현상”이라고 설명했다. 동시에 AI의 대응력을 높이기 위해 170명 이상의 정신 건강 전문가 패널을 두고, 신규 ‘GPT-5’ 모델에서 관련 대화 처리 능력을 강화했다고 덧붙였다.

GPT-5 모델은 정신 건강 위험 대화에 대해 91%의 정확도(이전 모델 대비 14%포인트 향상)를 보인다고 오픈AI는 강조했다. 여기에는 감정 분석, 자살·자해 가능성 탐지, 비상 상황 안내 등 다중 단계 알고리즘(정신 질환 위험군 대응 로직)이 적용된다. 기존 AI 챗봇은 폭넓은 주제를 처리하지만 감정·정신 건강 리스크 탐지에는 미흡하다는 점이 약점으로 지적돼왔다.

 

실제 챗봇 활용 확대와 함께, IT서비스가 정신적으로 취약한 사용자에게 미치는 실질적 영향에 대한 경계도 강해지고 있다. 전 세계적으로 심리 상담, 치료 등 비대면 건강 관리에 AI 챗봇이 도입되는 추세지만, 챗GPT는 대화의 개방성과 상호작용의 지속성 탓에 사용자의 부정적 감정을 악화시킬 수 있다는 지적도 있다.

 

글로벌 경쟁사 역시 책임성 강화를 모색하고 있다. 구글, 마이크로소프트 등은 자사 AI에서 민감성 필터링과 위험 대화 자동 차단 기능을 개선 중이다. 미국, 유럽 등 주요국은 생성형 AI의 정신 건강 영향성 실증과 법적 책임 소지에 관한 법령 마련을 논의 중이다.

 

전문가들은 챗봇의 정신 건강 대응력 고도화가 시급하다고 강조한다. 해밀턴 모린 정신과 의사는 “오픈AI의 개선 노력은 긍정적이지만, 근본적으로 해결된 것은 아니다”라고 했다. 토마스 폴락 신경정신과 컨설턴트도 “챗봇이 정신적 취약성을 증폭하는 사례와 데이터가 늘고 있다”고 말했다.

 

오픈AI는 극단 선택과 연루된 소송도 진행 중이다. 관련 사안에 대한 객관적 검증이 이뤄지지 않은 만큼, 회사 측은 “민감한 데이터 특성상 통계의 한계가 있다”며 “추가 연구에 따라 결과는 달라질 수 있다”고 설명했다. 산업계는 이처럼 AI가 사회 복지와 안전에 미치는 영향을 보다 정밀하게 평가할 필요성에 주목하고 있다. 기술과 윤리, 산출물과 책임성 간 균형점 마련이 신뢰받는 AI 생태계 확립의 관건이 되고 있다.

최동현 기자
share-band
밴드
URL복사
#오픈ai#챗gpt#gpt-5