“오픈소스 AI 도입 확산”…보안·신뢰성 해법 요구 커져
오픈소스 인공지능(AI) 기술이 전 산업 분야에 빠르게 확산되며, 국내 3분의 2 이상의 기업이 이미 관련 솔루션을 도입했거나 도입을 앞두고 있다. AI 핵심 소스와 데이터가 자유롭게 공개·활용되는 오픈소스 생태계가 기술 혁신 동력으로 부상하는 한편, 개인정보 보호·보안·법적 책임 등 신뢰성 요건을 둘러싼 현장의 고민이 커지고 있다. 업계는 “AI 혁신의 민주화”라는 가치 속에서 데이터 관리, 법적 책임 분산 등 구체적 관리 기준 확립이 ‘AI 실용화 경쟁’의 관건이 될 것으로 본다.
개인정보보호위원회가 15일 글로벌 프라이버시 총회(GPA) 부대행사로 개최한 ‘오픈소스 데이’ 현장에서 공개된 조사에 따르면, 국내 AI기업 및 연구자 70여명 중 3분의 2가량이 오픈소스 AI를 도입했거나 추진 중으로 나타났다. 특히, 응답자의 32%는 이미 자사 서비스·제품에 오픈소스를 실사용하고 있으며, 30%는 파일럿 테스트 또는 개념검증(POC) 단계에 있다. 오픈AI, 구글 라마(LLaMA), 제미나이(Gemini) 등 글로벌 빅테크의 오픈소스 생태계 활용이 눈에 띄었고, 생성형 AI 서비스·데이터 전처리·자연어처리(NLP)·머신러닝운영(MLOps)부터 의료·투자 등 다양한 영역에서 도입이 늘고 있다.

그러나 실제 도입 단계에서는 ▲보안 위험(24%) ▲라이선스 법적 리스크(19%) ▲유지보수 불확실성(16%) ▲AI 성능 문제(16%) ▲개인정보 우려(11%) 등 복합적인 부담 요인이 드러났다. 오픈소스 AI 모델의 미세조정(파인튜닝) 과정에서는 개인정보 및 민감정보 비식별·삭제(68%), 데이터 출처 검증(19%), 자체 레드팀 테스트(16%), 국외 데이터 이전(13%) 등 데이터 거버넌스 개선 요구가 컸다. 비식별화 자동 마스킹·품질 검증·가이드라인 제시 등 실무 적용 가능한 안전 기준 마련의 필요성도 대두됐다.
국내외 플랫폼 기업들은 신뢰성과 보안 이슈 해소를 위한 도구와 정책을 앞다퉈 발표했다. 구글은 ‘버텍스 AI’의 품질평가·프롬프트 최적화·안전성 강화 기능을, 마이크로소프트는 ‘애저 AI 파운드리’ 기반 에이전트 AI 구축 사례를, 네이버는 ‘하이퍼클로바X’ 기반 데이터셋·벤치마크·AI 안전성 프레임워크 운용을 내세웠다. 오픈AI 역시 오픈소스 확산에 따른 가치와 함께 글로벌 차원의 신뢰성 논의가 불가피함을 지적했다.
관계기관 역시 현장 목소리 반영에 속도를 내고 있다. 개인정보위는 올해 초 오픈소스 AI 스타트업 간담회, LLM(대규모언어모델) 실태점검, ‘AI 프라이버시 리스크 관리 모델’ 및 ‘생성형 AI 개인정보처리 안내서’ 발간 등을 추진해 위험관리·책임 배분 모델 정립에 나섰다. 이날 행사에서는 개인정보 필터링·데이터 검증·미세조정 절차·레드팀 구축방안 등 실무자 간 경험과 과제가 공유됐으며, “책임 있는 오픈소스 AI 생태계” 구축에 대한 공감대 또한 확인됐다.
최장혁 개인정보위 부위원장은 “오픈소스 기반 AI와 개인정보 보호를 함께 고민하는 공개 논의가 산업 현장에 시의성을 띠고 있다”며, “기업과 연구자가 안심하고 혁신에 집중할 수 있도록 실효적정책을 지속 추진하겠다”고 밝혔다. 산업계는 오픈소스 AI를 둘러싼 신뢰성·안전성 기준이 실제 시장 생태계 구축의 변곡점이 될지 촉각을 곤두세우고 있다.