“오픈소스 AI, 안전한 확산 모색”…개인정보위, 국제 협력 본격화
오픈소스 기반 인공지능(AI)의 확산과 함께 개인정보 보호 및 산업 융합 전략이 새로운 과제로 떠오르고 있다. 개인정보보호위원회가 15일 개최한 ‘오픈소스 데이’는 글로벌 프라이버시 총회(GPA)를 앞두고 AI 산업계·감독기구가 한자리에 모인 자리로, 오픈소스 AI 생태계에서 신뢰성과 프라이버시를 강화하는 방안이 집중 논의됐다. 업계는 이번 논의를 오픈소스 AI 경쟁의 글로벌 분기점으로 평가하고 있다.
이 행사에는 구글, 메타, 마이크로소프트(MS), 오픈AI, 에임 인텔리전스, 셀렉트스타 등 글로벌 오픈소스 AI 기업들이 참여해 각 사의 오픈소스 생태계 구축 경험과 신뢰성·안전성 도구를 공유했다. 개인정보위는 올해 오픈소스 기반 생성형 AI 현장의 수요와 위험요인을 조사해, 위험 관리와 책임 배분 원칙을 담은 ‘AI 프라이버시 리스크 관리 모델’과 ‘생성형 AI 개인정보 처리 안내서’를 발표한 바 있다. 특히 오픈소스 대규모언어모델(LLM) 도입이 늘면서 프라이버시 보호와 법적준수 문제 대응이 산업 전반의 핵심 이슈로 떠오르고 있다.

이번 행사는 AI 개발 기업들의 솔루션 현황을 구체적으로 보여줬다. 구글은 자사 플랫폼 ‘버텍스 AI’의 품질 평가·프롬프트 최적화·안전성 도구를, MS는 ‘애저 AI 파운드리’ 기반 에이전트 AI 구축 사례를 선보였다. 네이버는 국산 오픈소스 LLM ‘하이퍼클로바X’와 공개 벤치마크, 데이터셋 등 신뢰성 도구를 공유했다. 셀렉트스타는 오픈소스 활용한 AI 신뢰성 평가·데이터 구축 성과를 제시하는 등, 글로벌·국내 기업이 오픈소스 기반 AI의 투명성과 효율성, 보안 체계를 다양하게 제시했다.
기술적 차별화 지점은 프라이버시 보장과 신뢰성 강화에서 두드러진다. 메타의 ‘라마 가드’ 등 오픈소스 기반 정보 필터링, 에임 인텔리전스의 사내 데이터 보안 적용 사례, 첨단 레드팀(의도적 침투·검증) 테스트 설계 방안 등이 국내 환경에 맞춰 고도화됐다. 또한 오픈소스 LLM 도입 기업들이 겪는 민감정보 검증, 미세조정시 데이터 필터링, AI 책임성과 오류 신고 절차 등 현장의 고민과 실질적 가이드가 공유됐다.
글로벌 시장에선 오픈 AI, 구글 등 주요 기업들이 오픈소스 모델의 경제성·확장성과 함께, 사용처에 따른 프라이버시·신뢰성 우려를 직접 제기하고 있다. 각각 유럽, 미국, 한국, 브라질 등 주요국 감독기구는 개방성과 투명성, 그리고 안전성 균형이 신뢰받는 오픈소스 AI 생태계의 전제 조건이라는 데 의견을 모았다. 영국·이탈리아 등 해외 감독기구도 에이전틱(자율지능) AI 확산에 대비한 데이터 거버넌스, 국제 공조의 필요성을 강조했다.
오픈소스 AI가 확산되며 개인정보 위험에 대한 국내·외 규제 논의도 활발해지고 있다. 한국 개인정보위는 단기적으로 오픈소스 AI 개인정보 처리 실태와 산업계 현실을 반영한 정책 개발에 나섰고, “기업·연구자들이 안심하고 오픈소스를 활용할 수 있도록 현장 목소리를 정책에 반영하겠다”고 밝혔다.
전문가들은 “오픈소스와 프라이버시 보호의 균형이 AI 산업 성장의 핵심 축이 될 것”이라며, 안전성과 투명성을 담보하는 국제 거버넌스가 산업 표준으로 자리잡을 가능성도 있다고 내다보고 있다. 산업계는 오픈소스 AI 활용이 실제 시장에 안착할 수 있을지 주시하고 있다.