“AI가 교권분쟁 패턴 찾는다”...교총, 학생보호 제도 개선 나선다
교권 분쟁과 미성년자 보호 이슈에 인공지능 분석 기술을 접목하려는 논의가 교육계를 중심으로 속도를 내고 있다. 교사와 학생 사이 사건은 형사 수사와 별개로 교육청 징계, 학교 자체 조사, 교권 보호 절차가 동시에 얽히면서 판단 기준이 들쭉날쭉하다는 지적이 반복돼 왔다. 특히 호텔 출입 기록, 메신저 대화, CCTV 등 디지털 흔적이 핵심이 되는 사건이 늘면서, 데이터 기반으로 사실관계를 분석하는 기술 인프라가 필요하다는 문제의식이 커지고 있다. 업계와 교육단체에서는 교권 침해와 학생 인권 침해를 구분해낼 수 있는 AI 분석 체계를 갖추는 것이 향후 교실 안전과 분쟁 예방의 분기점이 될 것으로 보고 있다.
국내 주요 교원단체들은 최근 몇 년간 접수된 교권침해 상담과 징계 사례 데이터를 체계적으로 쌓기 시작했다. 향후에는 이 데이터를 기반으로 자연어 처리와 패턴 분석 기술을 도입해, 사건 유형별 빈도와 결과를 통계적으로 보여주는 ‘교권 리스크 지도’를 만들겠다는 구상도 나온다. 예를 들어 교사와 고등학생 사이 장기간 연락, 반복적인 호텔 출입, 미성년 여부에 따른 형사 기준 적용과 같은 정보들을 익명화해 학습데이터로 쓰면, 유사 사건이 접수됐을 때 위험 수준과 필요한 보호 조치를 빠르게 제시할 수 있다는 설명이다.

핵심은 디지털 증거를 어떻게 체계적으로 분석하느냐다. 현재 교육청과 학교는 수사기관이 확보한 CCTV 영상, 위치 정보, 카드 사용 내역 등을 단편적으로 공유받는 경우가 많고, 이 자료들을 사건의 시간순 흐름 속에서 재구성하는 작업은 사람 손에 의존한다. 최근 법과학 분야에서 발전한 디지털 포렌식 자동화 기술을 적용하면, 특정 기간 호텔 출입 기록과 통신 기록, 차량 이동 데이터 등 여러 소스를 한 번에 불러와 타임라인을 그릴 수 있다. 일부 스타트업은 미성년자 관련 사건에서 시간대별 동선과 동행자 변화를 시각화해, 수사기관과 교육청이 같은 화면을 보며 판단할 수 있는 플랫폼을 시험 중이다.
AI 기반 텍스트 분석도 주목받는다. 교사와 학생, 보호자, 학교 관계자가 주고받은 메시지 내용은 사건 해석에 큰 비중을 차지하지만, 대량의 대화를 일일이 사람이 읽고 맥락을 파악하기 어렵다. 언어 모델을 활용하면 위계관계 시사 표현, 성적 대상화 가능성이 있는 메시지, 회유·압박으로 해석될 수 있는 문장을 자동으로 표시해 조사자의 검토 효율을 높일 수 있다. 다만 이 과정에서 사적인 농담과 범죄적 함의를 섣불리 혼동하지 않도록, 알고리즘이 단정 짓지 않고 ‘검토 필요 구간’을 표시하는 보조 도구로 설계하는 것이 중요하다는 목소리가 크다.
글로벌 교육·법률 기술 시장에서도 유사 시도가 이어지고 있다. 미국과 유럽에서는 학교 내 성비위 및 아동 보호 사건을 다루는 전용 사건관리 시스템에 AI 추천 기능을 결합해, 과거 판례와 유사 사례를 자동으로 매칭해주는 솔루션이 상용화 단계에 들어섰다. 영국 일부 지자체는 교직원 징계 기록, 옴부즈맨 민원, 법원 판결문을 통합 데이터베이스로 만들고, 사건 유형에 따라 평균 처리 기간과 징계 수위를 제시하는 대시보드를 운영 중이다. 이런 시스템이 도입되면 개별 사건마다 판단이 크게 갈리는 ‘복불복’ 논란을 줄일 수 있다는 평가가 나온다.
다만 교육 현장에 AI 기반 분석 시스템을 들여올 때는 여러 제도적 장벽이 존재한다. 우선 학생과 교직원의 민감정보가 포함된 사건 기록은 개인정보보호법과 아동복지 관련 법령 적용을 동시에 받는다. 수사 단계에서 수집된 CCTV 영상, DNA 감정 결과, 호텔 출입 기록 등은 원칙적으로 형사 절차 목적에 한정돼 활용되며, 2차 활용을 위해서는 엄격한 비식별화와 법적 근거가 필요하다. 또 교육청이 독자적으로 디지털 포렌식을 수행할 경우 사법기관의 영역을 침범한다는 논란이 제기될 수 있어, 공공 포렌식 센터와의 협업 모델이 검토되고 있다.
AI가 내린 판단의 투명성도 핵심 과제로 꼽힌다. 사건의 민감도를 고려하면 결정 과정이 불투명한 알고리즘에 의존하기 어렵기 때문에, 어떤 데이터와 기준으로 위험도를 평가했는지 사람이 검증할 수 있는 구조가 필수다. 유럽연합이 추진 중인 AI 규제법은 아동·교육 분야 관련 AI를 고위험 시스템으로 분류해, 데이터 편향 점검과 설명 가능성 확보를 의무화하는 방향으로 논의하고 있다. 국내에서도 데이터기본법, 디지털플랫폼정부 정책 등의 논의와 맞물려, 교육·아동보호 영역 AI 가이드라인이 별도로 마련될 가능성이 크다.
전문가들은 교육 사건에 AI를 도입하더라도, 최종 책임은 어디까지나 사람과 제도에 있다는 점을 강조한다. 한 교육법 전문 변호사는 “디지털 증거 분석과 사건 패턴 통계는 판단의 균형을 맞추는 참고자료일 뿐이며, 교사와 학생 모두의 인권을 보장하는 절차 설계가 선행돼야 한다”고 말했다. 산업계와 교육계에서는 교권 보호와 학생 보호, 수사기관과 교육행정의 역할 분담을 다시 짜는 과정에서, 데이터와 AI를 활용한 증거 기반 의사결정 체계가 어느 수준까지 자리 잡을지 주시하고 있다.
