AI 임신 알림도 성적 대상화 논란…中 육아앱, 윤리 기준 도마 위
인공지능을 활용한 디지털 육아 서비스가 급증하는 가운데, 임신부의 신체 변화를 성적인 시각으로 서술한 알림 문구가 중국에서 논란이 되고 있다. 헬스케어·육아 플랫폼의 개인 맞춤형 알림 기능이 보편화되는 상황에서, 알고리즘이 생성하는 문장의 윤리성과 젠더 감수성이 새로운 규제 쟁점으로 떠오른 모습이다. 업계에서는 사용자의 건강 정보와 생활 패턴을 분석하는 서비스가 늘어나는 만큼, 의료·성 관련 메시지를 어떻게 설계하고 검증할지 여부가 향후 플랫폼 경쟁의 분기점이 될 수 있다는 관측이 나온다.
중국 대표 육아 앱 베이비트리는 최근 임신부의 주차 정보에 맞춰 예비 아버지에게 보내는 푸시 알림에 “가슴이 더 커질 수 있다” “몸이 S자 형태로 변하며 강한 여성성을 드러낸다” 등 문장을 포함해 이용자 항의를 받았다. 또 다른 알림에서는 “태아 발달이 안정적이니 성관계를 가져도 된다” “부부의 유대감을 강화할 수 있다” “이전에는 성관계에 관심이 없었을 수 있지만 태도가 달라질 수 있다”는 내용도 노출됐다. 해당 알림을 받은 22주차 임신부의 남편은 “아내가 여러 부위에 통증을 호소하는 시기에 성관계를 권하는 방식의 설명은 부적절하다”고 반발했다.

베이비트리 측은 이 알림이 인공지능 도구로 자동 생성된 일반 정보라고 해명했다. 고객센터는 “임신 주차별로 등록된 모든 사용자에게 제공되는 전반적인 신체 변화 안내일 뿐, 특정인을 겨냥한 권유나 악의적인 내용이 아니다”라며 “원치 않으면 알림 기능을 끌 수 있다”고 밝혔다. 또 다른 직원은 “성관계만을 강조하는 것이 아니라, 임신 기간 중 전반적인 변화 정보를 묶어 제공하는 과정에서 함께 노출된 것”이라고 설명했다.
논란의 초점은 기술 그 자체보다, 알고리즘이 구성한 콘텐츠의 관점과 문맥이다. 임신부의 신체 변화를 다루는 메시지가 통증, 불안, 감정 변화 같은 건강 정보보다 외형적 매력과 성관계를 우선 언급하면서, 플랫폼이 여성의 몸을 성적 대상으로 소비하는 시각을 재생산했다는 지적이 나온다. 디지털 헬스케어에서는 이미 AI 챗봇이 정신건강 상담 과정에서 부적절한 답변을 내놓거나, 생리 주기 앱이 불임 공포를 과장하는 문구를 제공해 논란이 된 사례가 잇따라 보고됐다.
특히 이번 사례는 알고리즘 기반 맞춤 알림이 실제로는 매우 획일적인 정보를 성별 고정관념에 기대 전달하고 있음을 드러냈다. 예비 아버지 계정을 대상으로 한 메시지가 임신부의 고통과 피로, 심리적 부담 대신 성관계 가능성과 매력 강조에 초점을 맞추면서, 건강 앱이 가정 내 권력 관계와 성적 의사결정에 미묘한 영향을 줄 수 있다는 우려도 제기됐다. 실제로 해당 남성 이용자는 “플랫폼이 임신부의 감정적·심리적 필요에 대한 설명을 더 비중 있게 다뤄야 한다”고 지적했다.
해외 디지털 헬스케어 업계에서는 산부인과 정보나 성 관련 콘텐츠를 제공할 때, 의학 자문위원회와 윤리 검토 절차를 거쳐 알고리즘이 생성하거나 추천하는 문구를 사전 필터링하는 사례가 늘고 있다. 유럽과 북미 일부 서비스는 임신 주차별 알림에 성관계 관련 내용이 포함될 경우, 별도의 동의 창을 두거나, 아예 민감 정보로 분류해 사용자가 직접 활성화해야만 보이도록 설계한다. 자동 생성 문장이더라도 플랫폼 사업자가 의학적 정확성과 젠더 편향, 문화적 수용성을 점검해야 한다는 인식이 자리 잡는 분위기다.
반면 중국에서는 이번 사건을 계기로 AI 육아·헬스케어 앱에 대한 콘텐츠 가이드라인과 감독 권한을 어디까지 설정할지에 대한 논쟁이 시작되는 양상이다. 소셜미디어에서는 “역겹다. 남편이 이런 메시지를 받도록 두지 않을 것”이라는 여성 이용자의 반발과 “예민하게 반응할 뿐, 일반적 조언에 불과하다”는 옹호 의견이 맞섰다. 플랫폼 측은 개별 알림 차단 기능을 안내하며 진화에 나섰지만, 임신부와 배우자의 정보가 결합된 계정 구조에서 어떤 내용까지 자동 노출할지에 대한 사회적 합의는 아직 부족한 상황이다.
전문가들은 디지털 헬스케어와 육아 앱이 의료·생활 데이터를 결합해 고도화될수록, 알고리즘 설계 단계에서부터 성인지 감수성과 프라이버시 기준을 반영해야 한다고 지적한다. 특히 인공지능이 텍스트를 자동 생성하는 구조에서는 한 번 설계된 편향적 문구가 수백만 사용자에게 동시에 확산될 수 있어 전통적 의료 정보보다 사회적 파장이 클 수 있다는 분석도 나온다. 산업계는 이번 논란을 계기로 임신·성 관련 정보를 다루는 AI 헬스케어 서비스 전반에 대한 가이드라인 마련과, 사전 검증 체계 구축 요구가 커질지를 주시하고 있다.
