“10대 챗GPT 이용, 부모 경고 시스템 도입”…오픈AI, 안전 강화에 나섰다
현지시각 29일, 미국(USA) 인공지능(AI) 기업 오픈AI(OpenAI)가 10대 이용자를 위한 챗GPT(ChatGPT) 서비스에 부모 통제 기능을 새롭게 도입한다고 밝혔다. 지난달 캘리포니아(California)에서 발생한 10대 청소년의 사망 사건 이후 유가족의 소송이 제기되며, 인공지능 챗봇 서비스의 책임론이 전면화된 가운데 발표된 조치다.
오픈AI는 새 기능을 통해 부모가 자녀의 챗GPT 사용 방식을 직접 설정할 수 있도록 했다. 예를 들어, 부모는 특정 시간대의 사용을 제한하거나, 다이어트·성·증오 발언 등 민감 사안에 대해 챗봇이 응답하지 않는 제한 버전을 선택할 수 있다. 아이가 심리적 위기에 놓일 경우 챗GPT가 이를 감지해 이메일, 문자, 앱 알림 등으로 부모에게 즉각 경고를 발송하도록 설계됐다. 기능 활성화를 위해서는 성인이 이메일로 자녀 계정 요청을 먼저 보내고, 승인을 받아야 한다. 이후 부모가 음성 모드·이미지 생성 여부 등 세부 설정도 할 수 있다.

최근 16세 청소년이 챗GPT에 자살 방법을 문의한 뒤 실제로 극단 선택을 한 사건이 알려지며, AI 서비스가 미성년자 심리에 미칠 영향과 안전망 필요성이 국제사회에서 크게 불거졌다. 오픈AI 청소년 복지 담당자인 로렌 조나스는 “이번 사안에 지속적으로 긴박감을 갖고 대응해왔고, 부모 통제 기능을 신속히 구축했다”고 밝혔다. 오픈AI는 앞으로 자녀의 실제 나이를 추정해 미성년자 보호를 강화하는 소프트웨어 개발에도 착수한다고 덧붙였다.
각국에서는 미성년자 AI 사용자 보호에 관한 사회적 요구가 높아지고 있다. 미국 언론에서는 “AI 챗봇 시대, 부모의 감시와 기업의 책임이 함께 필요하다”(뉴욕타임스)고 지적했다. 오픈AI는 부모 통제 기능 도입에도 불구하고, 자녀의 채팅내용 자체를 부모에게 직접 공유하지 않겠다는 방침을 분명히 해 10대 개인 정보 보호와 안전성 간 균형에도 신경 썼음을 강조했다.
시장과 전문가들은 “이번 조치가 10대 안전에 실질적 도움이 될지 주목된다”며, 동시에 “AI 서비스 운영사의 법적·윤리적 책임 기준이 높아질 것”이라고 평가하고 있다. 앞으로도 인공지능 챗봇과 미성년자 보호를 둘러싼 사회적 논의와 제도 개선이 세계적으로 이어질 전망이다.