logo
“AI에이전트 프라이버시 위협”…GPA, 책임설계 새 기준 논의
IT/바이오

“AI에이전트 프라이버시 위협”…GPA, 책임설계 새 기준 논의

문수빈 기자
입력

AI에이전트 기술이 개인정보 보호 질서를 뒤흔들 새로운 변수로 떠오르고 있다. 생성형에서 자율형으로 진화한 AI는 더욱 복잡한 행동 실행과 광범위한 데이터 접근성을 기반으로 산업의 효율성을 높이는 한편, 예측 불가능한 프라이버시 침해 위험을 동반하면서 글로벌 기준과 책임 설계 논의가 본격화되는 분위기다. 업계는 이번 GPA 서울총회를 ‘AI 프라이버시 체계 전환의 분기점’으로 평가하고 있다.

 

17일 서울에서 열린 제47차 글로벌 프라이버시 총회(GPA) 3일차 세션에서는 에이전트형 AI와 프라이버시 이슈가 집중적으로 다뤄졌다. 좌장 임용 서울대 로스쿨 교수와 함께 LG, 구글, 영국 정보위원회(ICO), 개인정보미래포럼 등 글로벌 기업과 기관의 책임자들이 개선 방안과 정책 대응 전략을 제시했다.

차세대 AI의 주된 흐름은 자율성과 행동 실행력에 있다. 김유철 LG AI연구원 전략부문장은 “에이전트형 AI는 단순 콘텐츠 생성 단계를 뛰어넘어, 산업 현장의 실시간 데이터 해석과 작업 계획·수행, 피드백에 근거한 결과 개선까지 자체적으로 처리할 수 있다”고 설명했다. 그는 특히 화학공장 등 생산시설의 운영 효율화, 금융·헬스케어 등 빈번한 환경 변동에 따른 적응적 프로세스 구현이 가능해지고 있음을 강조했다.

 

기술 구조에서는 AI체이닝 구조 등, AI가 AI를 부르는 다중 에이전트 체계가 빠르게 발전 중이다. 김 부문장은 “동의체계, 데이터 보호, 저작권 규정 등 리스크 요인을 사전 설계에 철저히 반영 중”이라 밝혔다.

 

이 같은 에이전트형 AI의 확산은 결국 인간의 감독이 제한되고, 장기적 데이터 축적·활용 구조로 인해 프라이버시 위협을 증폭시킬 우려가 높다. 이에 존 에드워즈 ICO 위원장은 “에이전트형 AI가 복잡·고도화할수록 XAI(설명가능인공지능) 기준과 투명성, 통제력 보장이 핵심”이라며 “기술 설계뿐 아니라 규제, 서비스 단계, 사용자 안내 전 과정에 투명성이 녹아들어야 한다”고 강조했다.

 

구글의 케이트 샬럿 부서장도 ‘프라이버시 중심 설계(Privacy by Design)’ 원칙의 전면 적용을 주장했다. 구글은 AI가 디바이스, 클라우드 등 실제 서비스에 적용될 때, 민감 정보 활용과 접근을 제한하고, 사용자가 이해할 수 있는 명확한 설명 체계를 제공하는 것이 필요하다고 밝혔다. 특히 “캘린더 일정 관리 등 업무지원 동작에서 맥락 정보만을 활용하고, 불필요한 신원 데이터 노출은 차단해야 한다”는 점을 분명히 했다.

 

이번 논의는 글로벌 빅테크, 각국 규제기관 모두 프라이버시 원칙을 기술 설계 초기부터 반영해야 한다는 인식 변화로 이어지고 있다. 업계 전문가들은 “AI에이전트 상용화의 시대에는 투명성·책임성·자율성의 균형이 무엇보다 중요하며, 각국 정책과 데이터법, 기업 기술 전략이 입체적으로 결합될 필요가 있다”고 분석했다.

 

산업계는 AI에이전트가 현실 산업에 적용될 때 글로벌 기준에 부합하는 프라이버시 보호와 기술 혁신의 균형이 실제로 구현될지 예의주시하고 있다. 기술과 윤리, 산업과 제도 간 균형이 새로운 성장의 조건이 되고 있다.

문수빈 기자
share-band
밴드
URL복사
#lg#구글#gpa