16세미만SNS막는다…호주, 연령인증 실험으로 온라인안전 시험대
16세 미만 청소년의 소셜미디어 이용을 전면 제한하는 국가 단위 실험이 호주에서 시작됐다. 디지털 환경이 청소년 정신건강과 사회적 발달에 미치는 부정적 영향을 줄이겠다는 목표 아래, 정부가 직접 연령 기준을 법으로 못 박고 빅테크 플랫폼에 강력한 기술적·법적 책임을 지우는 구조다. 정보기술 산업에서는 얼굴인식과 행동 기반 분석 등 고급 식별 기술이 동원되는 만큼 온라인 안전 정책과 개인정보 보호, 청소년 권리 논쟁이 한꺼번에 부상하는 분기점으로 보는 시선이 많다.
호주 정부는 현지 시각 10일부터 16세 미만 아동과 청소년의 SNS 사용을 금지하는 법을 본격 시행했다. 앞서 호주 의회는 지난해 11월 16세 미만 청소년의 SNS 계정 보유를 원천적으로 금지하는 법안을 통과시켰다. 이에 따라 이날부터 주요 SNS 플랫폼은 16세 미만 이용자의 접근을 차단해야 하며, 새 가입은 허용되지 않고 기존 계정은 16세가 되는 시점까지 비활성 상태로 묶인다. 정부 차원에서 연령 기준을 강제하는 조치는 글로벌 차원에서 선례가 없는 수준이다.

규제 대상에 포함된 플랫폼은 페이스북, 인스타그램, 틱톡, 유튜브, 스냅챗, X, 레딧, 트위치, 킥 등 10개다. 이들 서비스 운영사는 호주 내 이용자에 대해 연령 확인 및 인증 체계를 구축해야 하며, 규정을 어길 경우 최대 4950만 호주달러 수준의 벌금이 부과된다. 단순 약관 고지가 아니라, 파운드리나 의료기기 규제에 준하는 강도 높은 금전 제재가 연계되는 셈이다.
핵심은 연령 검증을 위해 동원되는 디지털 신원 확인 기술이다. 각 플랫폼은 안면 인식 기술을 사용해 셀피 이미지로 연령대를 추정하거나, 여권과 주민등록증에 해당하는 공인 신분증 제출, 금융기관 정보 대조 등 다양한 방식을 조합하는 방안을 검토 중이다. 여기에 더해 이용자의 접속 시간대, 콘텐츠 소비 패턴, 입력 언어 습관 등 온라인 행동 데이터를 기반으로 16세 이상 여부를 추론하는 행동 기반 분석 기법도 적용된다. 머신러닝 모델이 축적된 이용 행태 데이터를 학습해 연령 범주를 분류하는 방식이다.
호주 정부와 규제 기관은 이러한 기술 조합을 통해 미성년자의 신규 가입을 사전에 걸러내고, 이미 계정을 보유한 아동 이용자를 역추적해 식별한다는 계획이다. 연령 미달로 판단된 계정은 강제 비활성화되며, 이용자가 실제로 16세가 되는 시점에 다시 계정을 복구하는 절차가 뒤따른다. 이 과정에서 생체 정보, 공문서 사본 같은 민감 데이터가 어느 범위까지 수집·저장될지, 데이터 삭제와 2차 활용 제한은 어떻게 설계될지가 플랫폼과 규제 당국의 핵심 쟁점으로 떠오르고 있다.
이번 법의 근거는 청소년 정신건강과 온라인 안전에 대한 공중보건적 우려다. 호주 내 여러 조사에서 청소년 상당수가 사이버 괴롭힘과 혐오 발언, 폭력적 콘텐츠, 자해·자살을 부추기는 메시지 노출을 경험했다고 응답한 것으로 나타났다. 정부는 SNS가 청소년의 수면, 학습 집중도, 현실 대인관계에 미치는 영향을 고려하면 단순 생활 습관 문제가 아니라 장기적 정신건강 리스크라고 보고 있다.
학부모 단체와 시민 사회에서도 압력이 적지 않았다. SNS가 또래 관계 형성과 정체성 탐색 과정에 깊숙이 스며들면서, 알고리즘 추천 구조와 광고 비즈니스 모델에 대해 플랫폼의 책임을 묻는 요구가 높아졌다. 특히 짧은 영상 위주의 피드가 자극적인 콘텐츠를 연쇄 노출하는 구조, 사용자 체류 시간을 극대화하도록 설계된 인터페이스는 미성숙한 청소년에게 중독성 높은 자극을 반복 제공한다는 비판을 받아왔다.
다만 효과에 대해서는 회의적인 시각도 공존한다. 무엇보다 청소년들이 가짜 신분증을 촬영해 업로드하거나, 인공지능 기반 이미지 편집 도구로 자신의 얼굴을 성인처럼 보이게 조작하는 방식이 빠르게 공유될 수 있다는 점이 대표적이다. 성장 속도가 빠르거나 외모가 성인과 비슷한 청소년의 경우, 안면 인식 모델이 연령을 오판할 가능성도 배제하기 어렵다. 기술적 검증 단계가 정교해질수록 우회 수단 역시 고도화되는 구조적 한계가 지적된다.
또한 규제가 SNS 접속과 계정 보유에 집중돼 있을 뿐, 로그인 없이 소비 가능한 영상 스트리밍이나 익명 커뮤니티 이용까지 포괄하지 못한다는 점도 한계로 꼽힌다. 청소년 입장에서는 계정 기반 상호작용과 게시 기능은 막혀도, 콘텐츠 시청이나 링크를 통한 접속은 여전히 가능해 실질적인 유해 콘텐츠 노출 저감 효과는 제한적일 수 있다는 지적이 나온다.
호주 인터넷 안전 감시 기관은 어떤 연령 인증 기술도 100퍼센트 완벽할 수 없다는 점을 인정하면서도, 플랫폼들이 우회 시도를 최소화할 수단을 적극 도입해야 한다는 입장을 내놓았다. 플랫폼 기업 입장에서는 이 규제 대응이 단순 기능 추가를 넘어, 전 세계 서비스 구조와 데이터 거버넌스를 재설계해야 하는 압력으로 작용할 가능성이 크다. 호주 법을 준수하기 위해 별도 인프라를 구축하면, 다른 국가의 추가 규제 요구가 뒤따를 수 있기 때문이다.
국제적으로는 말레이시아, 뉴질랜드 등이 호주 모델을 참고해 유사한 SNS 연령 제한 정책을 검토 중이다. 유럽연합의 디지털서비스법과 AI 규제 논의와 맞물리면, 연령 기반 접근 통제와 고위험 알고리즘에 대한 투명성 요구가 결합된 새로운 형태의 규제 프레임이 형성될 수 있다는 분석이 나온다. 반면 표현의 자유, 청소년의 정보 접근권, 플랫폼 감시 강화를 둘러싼 인권 논쟁도 동시에 확산될 여지가 있다.
디지털 헬스케어와 온라인 안전 분야 연구자들은 청소년 SNS 규제가 정신건강 지표에 어떤 영향을 미치는지에 대한 장기 추적 연구가 필요하다고 강조한다. 숫자로 계정을 줄이는 것만으로 우울감과 자살 충동, 학업 스트레스가 완화되는지, 청소년의 오프라인 관계망과 지역 커뮤니티 활동에 어떤 변화가 나타나는지 입증해야 정책 지속 여부를 판단할 수 있다는 것이다.
산업계와 규제 당국은 호주에서 시작된 이번 실험이 향후 글로벌 표준으로 확산될지, 일회성 정책으로 남을지 주시하고 있다. 온라인 플랫폼 구조와 데이터 경제 전반을 바꾸려는 시도가 실제 사회적 효용으로 이어질지, 기술과 윤리, 산업과 제도 간 균형이 디지털 세대 보호의 새로운 전제 조건으로 부상하고 있다.
