“챗GPT 대화 이력 부모가 관리”…오픈AI, 청소년 안전 기능 강화로 AI 심리 리스크 대응
챗GPT가 청소년의 디지털 안전 이슈를 직접 겨냥해 보호체계를 변화시키고 있다. 오픈AI가 7월 중 부모 관리 시스템을 본격 도입하는 등, 청소년 대화 데이터의 AI 학습 여부와 서비스 반응 강도를 부모가 직접 관리할 수 있도록 한 것이 핵심이다. AI 챗봇이 제공하는 정보와 심리적 지원 기능에 대한 위험·윤리 논란이 커지는 가운데, 이번 대책은 고위험 사용자 보호와 서비스 신뢰 제고라는 산업적 파급력을 지닐 전망이다. 업계는 이번 조치를 AI 청소년 보호 경쟁의 분기점으로 해석한다.
오픈AI는 2일 공식 발표에서 향후 120일 동안 챗GPT의 안전 기능을 대폭 강화하겠다고 밝혔다. 만 13세 이상 자녀 계정에 대해 부모의 이메일 초대를 통한 연동 기능이 제공되며, 챗GPT가 나이별로 반응을 조정하는 ‘연령별 모델 행동 규칙’이 기본 적용된다. 대화 이력의 AI 학습 활용 여부도 부모가 직접 컨트롤할 수 있다. 특히 오랜 시간 대화 사용 시에는 챗GPT가 자녀에게 휴식을 권고하고, 심리적 위험 신호 감지 시 부모에게 즉각 알림이 가는 기능이 신설된다.

이번 조치가 추진된 배경에는 최근 미국 등지에서 챗GPT가 자살 방법을 안내했다는 논란, 청소년 대상 악의적 사용 급증 등이 있다. 오픈AI는 “청소년 등 취약 계층이 AI를 안전하게 의지할 수 있도록, 전문가 자문과 책임 있는 접근을 통해 시스템을 고도화하겠다”고 설명했다. 아주 위험한 주제(자해, 자살 등) 문의 땐 응답 거부와 전문기관 도움 연결을 기본 원칙으로 하고, 민감 대화 탐지 시 더 고도화된 추론 모델 ‘GPT-5-싱킹’으로 자동 전환하는 등 맞춤 보호체계를 강조했다.
시장 측면에선 플랫폼 신뢰성 제고가 주목된다. 기존 AI 채팅 시스템이 연령 및 심리 리스크를 실시간 반영하는 데 한계가 있었던 반면, 이번 정책은 보호자 연동과 실시간 위기 개입 등 ‘상호작용 기반’ 통제 기술을 도입해 차별화를 시도한다. 또, 장시간 대화를 예방하는 ‘휴식 권장’ 메시지 전송 등이 실질적 활용 맥락에 밀착된 조치로 꼽힌다.
오픈AI의 이번 조치는 구글, 마이크로소프트 등 글로벌 IT 업체와 비교해도 가장 강도 높은 청소년 보호 체계에 속한다. 특히 오픈AI는 올해 초 웰빙·AI 전문가 위원회를 결성, 정신 건강과 인간-컴퓨터 상호작용 전문가 자문을 받고 있다고 밝혔다. 60개국 250명 이상 글로벌 의사 네트워크와의 협업, 정신건강·소아과 전문의 직접 모델 연구 참여 등은 정책·서비스 양면에서 신뢰를 강화하는 요소로 평가된다.
정책·규제 관점에서는 미국, EU 등에서 각종 AI 안전·윤리 법안 논의가 진행되는 가운데, ‘실시간 위험 대처’와 ‘연령별 데이터 관리’가 규제 표준화의 선례로 부상할 것으로 보인다. 업계 전문가는 “AI 챗봇의 윤리적 안전장치와 신뢰 티어가 글로벌 서비스 채택의 핵심 요건이 되고 있다”고 했다.
산업계는 이번 오픈AI의 조치가 AI와 인간의 책임 경계, 서비스 감시 체계, 보호자 권한 등 신산업 윤리 구조에 시사점을 제공할지 주목한다. 기술과 윤리, 산업과 제도 간 균형이 새로운 성장의 조건이 되고 있다.