“AI 윤리·인권 경영 강화”…카카오, 글로벌 협력 가속 → 기업 책임·산업 표준 파장
AI 기술이 산업 전반의 혁신 동력으로 부상하는 가운데, 윤리와 인권, 산업 표준 정립이 새로운 경쟁의 초점으로 떠오르고 있다. 카카오는 국가인권위원회와 법무부가 공동 주최한 ‘기업과 인권 국제포럼’에서 AI 윤리 원칙과 리스크 관리 체계 구축 사례를 발표하며, 기술 산업 내 책임경영 모델을 구체화하는 행보를 보였다. 업계는 이번 발표를 ‘AI 신뢰 경쟁의 분기점’으로 보고, 향후 국내외 산업계 표준과 글로벌 협력 확산에 주목하고 있다.
카카오는 지난 8일 열린 이번 포럼의 ‘규제와 자발적 조치 활용 스마트믹스 사례’ 세션에서, 그룹 기술 윤리위원회를 중심으로 한 AI 윤리 원칙 수립과 체계적 리스크 관리 사례를 소개했다. 지난 2022년 국내 최초로 출범한 카카오 그룹 기술 윤리위원회는 AI 윤리 규정 준수, 알고리즘 투명성 강화, 기술 서비스 위험성 점검 등 그룹 차원의 통합 정책을 주도해왔다. 이러한 노력을 ‘기술 윤리 보고서’로 매년 공개하며, 정책 시행의 투명성과 열린 소통을 강화해 왔다.

카카오는 구체적으로 책임 있는 AI 가이드라인 제정, 생애주기별 자가 점검 도구 개발, 핵심 체크리스트 수립, 오픈소스 커뮤니티 ‘AI 얼라이언스’ 가입, 기술 윤리 사례 공유를 위한 자체 간행 ‘테크에틱스’ 등 다양한 실행을 병행하고 있다. 특히 AI 리스크 관리 체계 ‘카카오 AI 세이프티 이니셔티브(ASI)’ 구축과 더불어, 최근에는 AI 서비스의 안전성과 신뢰성 확보를 위해 ‘카나나 세이프가드’ 모델을 오픈소스 형태로 국내 최초 공개했다. AI 거버넌스의 선진사례로 글로벌 협업 확대, UN 인권기구·유니세프 등과의 다층적 교류도 병행 중이다.
아동·청소년의 디지털 권익 보호 역시 강조점으로 부각됐다. 카카오는 올해부터 국내 청소년 보호법, 유엔아동권리협약(UNCRC), 유니세프 디지털아동영향평가도구(UNICEF D-CRIA)를 참조한 디지털 아동·청소년 보호 체크리스트를 도입했다. 계열사별 기술윤리 소위원회 운영, 리스크 사전점검, 정책 및 거버넌스 검토를 통해 AI 서비스 개편 또는 출시 전 다양한 이해관계자 의견과 아동 보호 항목을 체계적으로 반영하는 데 주력하고 있다. 해당 체크리스트는 고충처리 절차 이행, 이해관계자와 정부 협업을 토대로 정책의 실효성 고도화를 목표로 마련됐다.
글로벌 시장에서는 EU, UN, ILO 등 기관이 AI 윤리와 아동 보호 기준을 강화하는 상황이다. 미국·유럽 등에서는 AI윤리 규범과 데이터 투명성 확보를 기업 경영의 필수 표준으로 요구하고 있다. 전문가들은 카카오의 사례가 국내 ICT·AI 생태계의 윤리·책임경영 패러다임 전환을 촉진할 계기가 될 수 있다고 분석하고 있다.
이상호 카카오 그룹 기술윤리 소위원장은 “AI 서비스 혁신과 인권, 프라이버시 등 사회 민감 영역이 결합하는 변화 속에서, 기업의 책임 의식이 내재화돼야 기술 발전이 사회 신뢰로 연결될 것”이라고 밝혔다.
산업계는 이번 AI 윤리경영 모델이 규제·정책 변화 흐름에 맞춰 실질적 표준이 될 수 있을지 주목하고 있다. 기술과 윤리, 산업과 제도 간 균형이 새로운 성장의 조건으로 강조되고 있다.