logo
“AI 개인정보 보호 필터 공개한다”…오픈AI, 프라이버시 혁신 선언에 업계 주목
IT/바이오

“AI 개인정보 보호 필터 공개한다”…오픈AI, 프라이버시 혁신 선언에 업계 주목

전민준 기자
입력

AI 기반 개인정보 보호 기술이 글로벌 IT산업의 패러다임을 바꾸고 있다. 오픈AI가 자체 개발한 ‘프라이버시 필터(Privacy Filter)’를 2025년 중 오픈소스로 공개하기로 하면서, 전 세계 개발자들은 한층 강화된 프라이버시 기준을 구현할 수 있을 것으로 기대된다. 업계는 이번 조치가 “AI 윤리·신뢰 경쟁의 분기점”이 될 것이라는 해석과 함께, AI 활용의 제도·규범 체계 재편 움직임을 촉진한다고 본다.

 

오픈AI는 17일 서울에서 열린 글로벌 프라이버시 총회(GPA) 기조연설을 통해 이 같은 계획을 공식화했다. 오픈AI 최고전략책임자(CSO) 제이슨 권은 “‘프라이버시 필터’는 AI 모델 학습과정에서 개인 데이터를 식별·제거해, 타 상용 기술 대비 데이터 보호 수준을 크게 높인 도구”라고 설명했다. 실제로 이 기술은 챗GPT 등 오픈AI 서비스 확장 과정에서 도입돼, 대화 기록 ‘임시 채팅’ 옵션 제공, 학습 데이터 배제 선택권, 기업 고객 데이터 비학습 등 다층적 보호 체계를 구현 중이다.

프라이버시 필터의 핵심은 대규모 언어모델(LLM) 등 AI 학습 데이터셋 내에서 개인정보를 자동 검출 및 마스킹하는 알고리즘에 있다. 오픈AI에 따르면, 동급 상용 솔루션 대비 개인정보 제거 정확도가 가장 높은 수준을 기록했다. 예컨대, 이름·주소·고유식별정보(PII: Personally Identifiable Information) 등 민감정보를 비식별 처리함으로써 AI 학습 과정의 ‘프라이버시 위험’을 획기적으로 낮춘다는 설명이다.

 

이와 함께 오픈AI가 준비 중인 청소년 전용 챗GPT, 부모 통제 강화 기능, 위험 징후 감지 기술 등은 실제 사회적 약자 보호 이슈까지 폭넓게 포괄한다. 청소년 보호 요소로는 사용 시간 설정, 선정·폭력성 콘텐츠 차단, 보호자 연동 기능 및 상담 신호 감지 등이 내장된다.

 

글로벌 AI 데이터 규제 논의가 치열한 가운데, 오픈AI는 AI와 사용자의 대화 데이터에 ‘법적 특권’ 또는 판례적 보호책이 필요하다는 입장도 밝혔다. 권 CSO는 “의사·변호사와의 대화처럼, AI와의 복잡한 상의 역시 법적 보호 대상이 돼야 하며, 이것이 사회적 신뢰 확보의 관건”이라고 강조했다. 미국·유럽도 EU AI Act, 데이터기본법 등 투명성과 데이터권 보장 규정이 점진적으로 강화되는 추세다.

 

오픈AI는 현재 서울대 등 국내외 학계 및 규제기관과 협업을 확대하며, AI 네이티브 캠퍼스 등 ‘안전하고 투명한 AI 거버넌스’ 구현 테스트베드를 구축 중이다. 현장 전문가들은 “AI 윤리와 산업 제도, 규제·투명성 논의는 IT산업의 새 성장 조건이 됐다”며, “개방형 프라이버시 필터 공개가 산업계 실질 표준(데펙토 스탠더드) 논의를 촉진할 것”이라는 의견을 내놨다.

 

업계는 이번 기술이 실제 시장에 안착할 수 있을지 주시하고 있다. AI 거버넌스에서 프라이버시·윤리·데이터 보호가 산업 신뢰기반의 핵심으로 재설정될 가능성도 있다.

전민준 기자
share-band
밴드
URL복사
#오픈ai#프라이버시필터#챗gpt