“챗GPT 논란에 안전강화”…오픈AI, AI 이용자 보호체계 강화 시동
오픈AI가 생성형 인공지능(AI) 서비스 ‘챗GPT’를 둘러싼 자해 및 위기 대응 논란 이후, 플랫폼의 안전 강화 계획을 발표했다. 최근 미성년자가 챗GPT로부터 자살 방법 또는 유서 관련 조언을 받았다는 소송이 미국에서 진행되면서, AI의 사회적 책임·안전망 논의가 글로벌 이슈로 떠오르고 있다. 업계는 이 같은 조치를 ‘생성형 AI 안전관리 경쟁의 분기점’으로 해석하고 있다.
오픈AI는 26일 공식 블로그를 통해 챗GPT의 새로운 보호 및 안내 체계를 공개했다. AI가 자해 같은 위험 요청을 받을 경우 응답을 거부하고, 감정을 인지하는 문구로 연결한다. 필요시 지역별 전문기관 연락처를 안내하도록 시스템이 설계됐다. 특히 미성년자 및 장시간 이용자에게는 추가적인 보호 장치와 휴식 안내 기능이 함께 제공된다.

기술 측면에서는 최신 모델 GPT-5가 도입되면서, 기존 GPT-4o 대비 안전성 지표가 25% 이상 향상됐다고 오픈AI 측은 설명했다. 신경망 구조와 프롬프트 최적화를 통해 위기 상황 인식 및 일관된 보호 응답 능력을 강화한 것이 특징이다. 오픈AI는 긴 대화가 이어질수록 챗GPT가 응답 일관성을 점차 잃을 수 있다는 점을 실사용 경험에서 확인, 장시간 대화 조건에서도 안정성을 유지하도록 알고리즘을 수정했다.
이러한 개선은 실제 미국·영국 등에서 정신건강·청소년 이용자 보호 이슈가 불거진 배경에서 비롯됐다. 지역별로 긴급 지원 핫라인 안내를 확대했으며, 사용자 요청 즉시 전문기관 연결이 가능하도록 기능 고도화도 추진 중이다.
글로벌 AI업계 역시 기술 신뢰성, 사용자 보호를 최우선 과제로 놓고 있다. 마이크로소프트, 구글 등 주요 테크기업은 AI윤리 기준을 강화하고 필터링 체계, 연령별 접근 제한, 부모 통제 기능 등 다층적 방어선을 도입하는 추세다. 유럽연합(EU) 등에서는 ‘AI법’을 논의, 고위험 AI 서비스에 대한 법적책임과 투명성 규정을 추진한다.
국내 역시 정보통신기술(ICT) 정책당국이 AI서비스 안전 가이드라인 마련에 나서고 있다. 청소년 등 취약계층 보호 원칙, 실사용 모니터링, 위기감지 프로토콜 등의 제도화가 논의되고 있다.
전문가들은 AI가 인간의 정서와 상호작용하는 시스템인 만큼, 기술적 필터 조치와 더불어 응급상황 관제 등 비상대응 프로세스, 데이터 기반 사전위험 신호 감지역량 고도화도 병행돼야 한다고 지적한다. “AI가 일상화되는 시대에, 안전과 윤리, 법적 책임이 신기술의 생명력이 되고 있다”고 분석했다.
산업계는 오픈AI의 이번 조치가 글로벌 AI서비스 시장의 새로운 표준이 될지, 실제 현장에서의 실효성 확보와 기술-윤리 균형이 지속적 논의가 필요하다고 보고 있다. AI의 성장 속도만큼 사용자 보호, 사회적 신뢰제고 노력이 중요하다는 목소리가 높아지고 있다.