“해외 AI기업 국내 대리인 의무”…정부, EU·미국 수준 최소규제
오픈AI, 구글 등 글로벌 초거대 인공지능(AI) 기업이 내년 1월부터 국내 서비스를 제공하려면 한국 내 대리인 지정이 의무화된다. 동시에 일정 기준을 초과하는 초거대 AI 모델은 안전성 확보, 투명성 고지 등 강화된 규제에 대응해야 한다. 과학기술정보통신부가 17일 공개한 AI 기본법 하위법령(시행령·고시·가이드라인)에서는 “EU·미국 등 해외 최소 규제 수준에 맞춘다”는 원칙 아래 산업계 부담을 대폭 완화했다. 업계는 이번 법령이 세계적 AI 규제 경쟁의 분기점이 될지 주목하고 있다.
이번 하위법령은 국내외 AI 산업의 신뢰성 확보와 안전성 강화를 핵심 목표로 삼았다. 주요 내용은 AI 결과물의 투명성 확보를 위해 생성형·고영향 AI가 생성한 결과에 ‘AI 개입’ 표기를 의무화하고, 워터마크·고지 문구 삽입 등 구체적 방식을 가이드라인에 제시했다. 내부 실험이나 제한적 환경은 예외가 인정되나 국민이 직접 사용하는 서비스라면 표시를 필수로 요구한다. 초거대 AI는 누적 학습량 10의26승 플롭스(flop·부동소수점 연산) 이상 모델에 대해 미국 국가안보각서와 동일한 기준으로 안전성 관리 의무가 부과됐다. 여기에 인간의 생명·신체·기본권에 영향을 주는 고영향 AI는 추가적으로 정기 위험 관리와 투명성 절차를 거쳐야 한다.

규제 대상인 글로벌 AI 기업은 매출액 1조원 이상, AI 서비스 매출 100억원 이상, 일평균 국내 이용자 100만명 이상 기준을 충족하면 반드시 한국 내 대리인을 지정해야 한다. 오픈AI, 구글 등 주요 기업이 해당될 전망이다. 대리인은 국내 법인, 법무법인 등 폭넓게 지정을 허용해 대응 부담을 줄였다. 이는 정보통신망법과 개인정보보호법 기준과도 일치한다.
특히 이번 제도는 처벌보다 계도 중심의 운용 원칙을 강조했다. AI 기본법 시행 초기 기업 혼란을 최소화하기 위해 의무 위반에 따른 과태료(최대 3000만원)는 1년 이상 계도 기간을 둔 뒤 부과토록 했다. 정부의 사실조사 권한도 엄격히 제한돼, 명확한 증거가 있을 때만 개시되며 부당 또는 악의적 신고는 제외된다.
해외에서는 이미 AI 규제 및 책임 범위 설정 논의가 본격화된 상황이다. 유럽연합(EU) AI Act, 미국의 국가안보각서 등과 유사하게, 국내 AI 기본법도 기업의 혁신을 저해하지 않는 최소한의 규제만 채택했다는 게 정부 설명이다. 실제 글로벌 AI 기술 경쟁력이 국가 산업 판도를 좌우하는 만큼, 정부는 진흥 중심 정책 기조를 확고히 하겠다는 방침이다.
전문가들은 이번 하위법령의 현실적 규제 설계에 긍정적 평가를 내놓고 있다. 송도영 법무법인 비트 변호사는 “사실조사를 통한 자료 확보는 산업계의 실제 부담보다 기업이 어떻게 이행해야 하는지 구체적으로 알려주는 방식이 더 합리적”이라고 분석했다. 김경만 과기정통부 인공지능정책관은 “EU와 미국 대비 최소한의 규제만 반영했다”며 “해외 기업의 국내 적응 장벽도 낮췄다”고 밝혔다.
AI 기본법은 올 하반기까지 입법예고와 업계 의견수렴 절차를 거쳐 연말 최종 확정된다. 산업계는 이번 규제 패키지가 실제 시장 환경에 안착할 수 있을지 예의주시하고 있다. AI 기술 혁신과 산업 진흥, 인권 보호라는 다중 목표 사이에서 ‘균형 잡힌 규제’가 새로운 성장을 견인할지 주목된다.