유엔 무대 오른 카카오 AI 인권 전략…공공 기여 앞세운 국제 행보
인공지능 기술의 윤리성과 인권 보호가 글로벌 IT 산업의 핵심 의제로 떠오른 가운데 카카오가 유엔 무대에서 인권 기반 AI 운영 전략과 공공 기여 사례를 공개했다. 데이터와 알고리즘 편향, 혐오 발화, 아동·청소년 보호 등 AI가 초래하는 인권 침해 우려가 커지는 상황에서, 기업 스스로 인권 기준을 거버넌스로 제도화하고 그 결과물을 오픈소스로 공유하는 시도에 국제 사회의 관심이 모이고 있다. 업계에서는 이번 발표가 국내 ICT 기업의 AI 인권 경쟁 본격화를 알리는 분기점이 될 수 있다고 보고 있다.
카카오는 24일부터 사흘간 스위스 제네바에서 열린 유엔 산하 인권최고대표사무소 주최 제14차 유엔 기업과 인권 포럼에 참석해 인권 기반 인공지능과 기술의 공공 기여 사례를 발표했다고 26일 밝혔다. 유엔 기업과 인권 이행원칙 UNGPs 이행 확산을 목표로 하는 이 포럼에는 각국 정부와 글로벌 기업, 지역공동체, 유엔 기구, 인권단체, 학계 관계자들이 참여해 기업 활동과 인권 보호 간 균형을 논의한다.

카카오는 인공지능 시대의 인권 증진 세션에 패널로 참여했다. 하진화 AI 세이프티 시니어 매니저는 발표에서 카카오는 AI 기술 개발과 운영 전 단계에 인권 보호 체계를 접목하고 있으며, 한국어와 문화 맥락에 최적화된 AI 가드레일 모델을 오픈소스로 공개해 공공 조달과 민간 서비스 전반의 신뢰성 기반을 마련하고 있다고 소개했다. AI 가드레일은 생성형 AI가 유해 발언이나 불법 정보, 차별적 응답을 하지 않도록 제어하는 안전성 필터 기술을 뜻한다.
카카오는 기술 개발, 서비스 설계, 출시, 운영 전 과정에 인권 관점을 반영하는 내부 거버넌스를 구축했다고 설명했다. 핵심 도구로 제시된 카카오 그룹의 안전한 AI를 위한 핵심 체크리스트는 국가인권위원회가 개발한 AI 인권영향평가 도구를 주요 참고문헌으로 삼아 제작됐다. 인권영향평가는 알고리즘 개발과 데이터 수집·활용 과정이 표현의 자유, 차별 금지, 프라이버시 등 기본권을 침해할 소지가 있는지 사전에 점검하는 절차다.
그룹 차원의 AI 윤리 원칙인 카카오 그룹의 책임 있는 AI를 위한 가이드라인에서는 인권을 명시적 원칙으로 규정하고 관련 항목을 세분화해 반영했다. 데이터 수집과 학습 과정에서의 투명성, 알고리즘 설계 단계의 편향 최소화, 결과 설명 가능성과 이의 제기 절차 마련 등이 핵심 내용으로 알려져 있다. 디지털 아동·청소년 보호 체크리스트의 경우 유니세프가 제시한 디지털 아동 영향평가 프레임워크를 바탕으로, 아동의 안전과 참여권, 정보 접근권을 균형 있게 고려하는 방향으로 구성됐다.
특히 이번 체계는 국제 인권 기준과의 정합성을 강조하고 있다. 카카오는 OHCHR, 글로벌 AI 협의체 AI 얼라이언스 등 기관과의 협력을 통해 내부 기준을 지속적으로 점검하고 보완하고 있다고 밝혔다. 유럽연합의 AI 법안, 경제협력개발기구의 AI 원칙 등과 함께 유엔 차원의 인권 원칙은 글로벌 ICT 기업들이 준수해야 할 공통 규범으로 자리 잡는 추세다.
기술적 안전 장치 측면에서는 AI 가드레일 모델 카나나 세이프가드를 전면에 내세웠다. 카카오는 지난 5월 한국어 생성형 AI의 안전성과 신뢰성을 검증하기 위해 카나나 세이프가드를 개발했고, 국내 기업 중 처음으로 이를 오픈소스로 공개했다. 카나나 세이프가드는 이용자 입력과 모델 응답을 분석해 혐오 표현, 폭력·성적 유해 콘텐츠, 범죄 조장 정보 등을 사전에 차단하거나 완화된 표현으로 변환하는 필터링 역할을 수행한다. 현재 카카오의 주요 AI 서비스에 적용돼 상용 환경에서 검증을 거치고 있다.
데이터 측면에서는 한국형 AI 안전성 평가 데이터셋 구축 사례가 소개됐다. 최근 카카오는 한국정보통신기술협회와 한국과학기술원과 함께 생성형 AI 안전성 평가 데이터셋 AssurAI를 공동 개발했다. 총 1만1480건으로 구성된 이 데이터셋은 글로벌 AI 위험 분류체계를 기반으로 설계했으며, 혐오·차별, 자해·자살, 불법 행위 조장 등 위험 카테고리를 체계적으로 반영했다. 동시에 한국 사회의 언어 습관과 문화적 맥락, 법제 환경을 반영해 현지화한 것이 특징이다.
AssurAI는 AI 모델이 위험 발화를 어떻게 처리하는지 성능을 측정하고, 안전성 향상 알고리즘을 연구·개발하는 데 활용할 수 있는 벤치마크 데이터셋이다. 카카오는 이를 누구나 접근 가능한 오픈소스로 공개해 학계와 스타트업, 공공기관이 공통 기준으로 활용할 수 있도록 했다. 글로벌 AI 커뮤니티 플랫폼을 통해 배포한 점은 국내에서 개발된 인권·안전성 중심 데이터셋을 국제 연구 생태계와 공유하려는 시도로 해석된다.
카카오의 행보는 AI 윤리와 인권 문제가 규제 영역을 넘어 기업 경쟁력의 핵심 요소로 부상한 세계적 흐름과 맞닿아 있다. 미국과 유럽에서는 이미 생성형 AI 서비스에 대해 위험 기반 접근을 전제로 한 규제 논의가 진행 중이며, 알고리즘 투명성과 인권영향평가는 조달 기준과 투자 심사 항목으로 포함되는 추세다. 이런 환경에서 한국어와 한국 사회 특성을 반영한 안전성 도구와 데이터셋을 선제적으로 공개했다는 점이 차별화 요소로 꼽힌다.
김경훈 카카오 AI 세이프티 리더는 AI 기술 개발과 서비스 운영에서 이용자 보호를 최우선 가치로 두고 관련 정책을 고도화하고 있다며 기술의 투명성 확보와 공공 기여 확대를 통해 IT 기업으로서 인권 존중을 선도하고, 지속 가능한 기술 생태계와 사람 중심의 AI를 위해 노력하겠다고 말했다. 산업계에서는 카카오가 축적한 체크리스트와 가드레일, 안전성 데이터셋이 국내외 사업자들의 사실상 표준으로 자리 잡을 경우, 한국발 AI 인권 모델의 위상을 높이는 계기가 될 수 있다고 보고 있다. 동시에 기술 혁신 속도 못지않게 인권과 안전을 제도화하는 거버넌스 경쟁이 향후 AI 산업의 판도를 좌우할 변수로 부상하고 있다.
