내년 1월 시행을 앞둔 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)’을 둘러싸고 언론과 산업계의 관심이 집중되고 있다. 정부는 AI 기술 진흥과 함께 안전성과 신뢰 확보를 제도적으로 뒷받침하겠다는 방침이지만, 시행령과 가이드라인의 구체성에 따라 현장 혼선이 불가피하다는 지적도 나온다.

[ AI 생성 이미지 ]
AI 기본법은 2026년 1월 22일부터 시행될 예정으로, 생성형 AI와 고영향 AI에 대한 표시 의무와 안전성 확보 의무, 정부의 관리·지원 체계를 담고 있다. 특히 기존 정보통신·개인정보 규제와 달리, AI 기술 자체를 포괄적으로 규율하는 첫 기본법이라는 점에서 의미가 크다.
현재 논의의 핵심은 생성형 AI 결과물에 대한 ‘표시(고지) 의무’와 ‘고영향 AI’의 범위다. 정부는 이용자가 AI에 의해 생성된 결과물임을 명확히 인식할 수 있도록 표시하도록 하고, 사회적 영향이 큰 AI 시스템에는 추가적인 안전성 확보 조치를 요구할 방침이다. 다만 표시 방식과 범위, 고영향 AI 판단 기준이 명확하지 않을 경우 기업 현장에서는 과도한 부담이나 법적 분쟁 가능성이 제기된다.
특히 이미지·영상·음성·대화형 서비스 등 다양한 생성형 AI 서비스에서 “어디까지 표시해야 하는지”, “기술적 워터마크만으로 충분한지”, “이용자 고지를 어떻게 증명할 것인지”가 주요 쟁점으로 떠오르고 있다. 표시 수준에 대한 해석 차이로 민원이나 분쟁이 발생할 가능성도 크다.
고영향 AI 기준 역시 논쟁 대상이다. 금융, 의료, 고용, 교통, 공공행정 등 사회적 영향이 큰 분야에서 어떤 AI 시스템이 고영향으로 분류되는지에 따라 기업의 의무 수준이 크게 달라진다. 기준이 지나치게 포괄적일 경우 과잉 규제로 이어질 수 있고, 반대로 지나치게 협소할 경우 사고 발생 시 책임 공방이 불가피하다.
또한 AI 기본법은 대기업뿐 아니라 중소기업과 스타트업, 솔루션 공급사에도 간접적인 컴플라이언스 부담을 발생시킬 가능성이 있다. AI 모델을 직접 개발하지 않더라도 외부 API나 클라우드 기반 AI를 활용하는 기업까지 책임 범위에 포함될 수 있기 때문이다. 이에 따라 계약 관계와 책임 분담 구조를 둘러싼 공급망 리스크도 새로운 과제로 부상하고 있다.
이러한 문제를 최소화하기 위해서는 정부와 기업 모두 사전 대응이 필요하다는 지적이 나온다. 정부는 서비스 유형별 표시 의무 기준과 예외 사항을 구체화하고, 고영향 AI 판단을 지원하는 사례 중심 가이드라인을 제시할 필요가 있다. 또한 시행 초기에는 제재보다는 계도와 지원 중심의 운영 원칙을 명확히 해 시장의 예측 가능성을 높여야 한다는 의견이 많다.
기업 역시 AI 활용 현황을 체계적으로 점검할 필요가 있다. 자사 서비스에 적용된 AI 모델과 데이터, 외부 공급 구조를 정리한 ‘AI 인벤토리’를 구축하고, 생성형 AI 표시 체계와 안전성 관리 절차를 사전에 마련해야 한다. 아울러 AI 공급사와의 계약에서 책임 범위와 기술 정보 제공 수준을 명확히 하는 것도 중요하다.
AI 기본법 시행은 단순한 규제 도입이 아니라, 국내 AI 산업이 신뢰 기반 성장 단계로 전환되는 분기점이라는 평가가 나온다. 표시 의무와 고영향 AI 기준, 계도 기간 운영을 얼마나 현실적으로 설계하느냐가 향후 산업 경쟁력과 시민 수용성을 좌우할 핵심 변수가 될 전망이다.
#AI기본법 #인공지능기본법
#생성형AI #고영향AI
#AI규제 #AI거버넌스
#표시의무 #AI안전
#디지털정책 #테크앤로우