이 법은 현재 한국에서 AI를 규제하는 사실상의 모법입니다. AI기본법이 국회에서 심의 중이지만 통과 시점이 불확실한 상황에서, 지능정보화 기본법이 AI 서비스의 윤리, 투명성, 이용자 보호를 규율합니다.
가장 중요한 변화는 자동화된 의사결정에 대한 설명 의무(제56조)입니다. AI가 채용 서류 심사, 신용 평가, 콘텐츠 추천 등 이용자에게 직접 영향을 미치는 결정을 내리는 경우, 그 사실과 기준을 고지하고 이의제기 절차를 마련해야 합니다. 이는 EU AI Act의 고위험 AI 규제와 같은 방향입니다.
공공기관의 AI 도입에는 사전 영향평가가 의무화되었습니다. AI를 납품하는 기업은 모델 성능, 편향 리스크, 학습 데이터 출처를 문서화한 영향평가 보고서를 준비해야 합니다. 2026년 초부터 실제 집행이 시작되어 공공 SI 시장에 직접 영향을 미치고 있습니다.
실무적으로 AI SaaS 기업이 가장 먼저 대응할 것은 두 가지입니다. 이용약관에 자동화된 의사결정 고지를 추가하는 것, 그리고 모델 카드(Model Card)를 작성하여 투명성 요건을 충족하는 것입니다.
2026년 1월 시행된 개정안은 기존 「국가정보화 기본법」에서 '지능정보사회'로의 전환을 반영합니다. AI 서비스를 '지능정보서비스'로 정의하고, 서비스 제공자에게 윤리 원칙 준수, 투명성 확보, 이용자 보호 의무를 부과합니다.
특히 자동화된 의사결정(채용 AI, 신용평가 AI 등)에 대해 이용자에게 사전 고지하고, 이의제기 절차를 마련하도록 의무화했습니다. 이는 EU AI Act의 고위험 AI 규제와 유사한 방향입니다.
ChatGPT 등 생성형 AI 확산으로 AI 윤리와 안전에 대한 사회적 요구가 급증했습니다. AI기본법 제정 논의가 국회에서 진행 중이지만 통과 전까지 지능정보화 기본법이 AI 규제의 핵심 법률 역할을 합니다.
디지털포용법 내용이 반영되어 디지털 소외 계층 보호, AI 서비스 접근성 의무도 추가되었습니다. 공공기관의 AI 도입 시 영향평가 실시 의무도 신설되었습니다.
AI SaaS를 개발하거나 도입하는 기업은 자동화된 의사결정 관련 고지 의무를 반드시 확인해야 합니다. 특히 채용, 심사, 추천 등 이용자에게 직접 영향을 미치는 AI 기능이 있다면 설명 가능성(explainability) 확보가 필수입니다.
공공 SI 사업에서 AI를 납품하는 기업은 영향평가 보고서 작성이 필수 요건이 되었습니다.