세계 최초 AI 기본법: 한국 AI기본법 핵심 의무와 과태료 정리

반응형

2026년 1월 22일 시행된 한국 AI기본법을 중심으로, 고영향 인공지능·생성형 AI 표시 의무, 영향평가, 시정명령과 과태료(최대 3천만원) 등 실무에서 바로 필요한 내용을 정리합니다

세계 최초 AI 기본법: 한국 AI기본법 핵심 의무와 과태료 정리

정책 · 법제

세계 최초 AI 기본법: 한국 AI기본법 핵심 의무와 과태료 정리

기준일: 2026년 1월 25일 · 이 글은 정보 제공 목적이며 개별 사안의 법률 자문이 아닙니다.

1) “세계 최초 AI 기본법”이 의미하는 것

최근 한국에서 시행된 「인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(통상 ‘AI기본법’)」이 “세계 최초의 포괄적 AI 법”으로 소개되며 주목을 받았습니다. 시행일은 2026년 1월 22일이며, 산업 진흥(지원)과 안전·신뢰(규율)를 하나의 기본법 체계에 묶었다는 점이 핵심입니다.

실무 기준으로 보면
“AI기본법은 무엇을 금지하나?”보다
“어떤 AI를 ‘고영향’으로 보고, 무엇을 고지·표시·관리해야 하는가?”가 먼저입니다.
특히 생성형 AI 콘텐츠 표기(워터마크/메타데이터)와 고영향 AI의 사전 고지·통제 요건이 현장에서 바로 영향을 줍니다.

2) 적용 대상: 누가 지켜야 하나

핵심은 ‘일반 사용자’가 아니라 ‘AI 사업자’

보통 이 법에서 말하는 의무의 중심은 AI를 개발·제공·운영하거나, 최종 이용자에게 AI 기능을 서비스 형태로 제공하는 사업자(기업·기관)입니다. 개인이 단순히 AI 도구를 사용했다고 해서 동일한 수준의 의무가 부과되는 구조로 보긴 어렵습니다.

“AI기본법”이 건드리는 대표 상황

  • 채용·승진·배치 등 사람의 기회를 좌우하는 자동화/AI 평가
  • 대출·보험·신용평가 등 금융 의사결정 보조/자동화
  • 의료·교통·원자력·물·에너지처럼 안전사고 파급이 큰 분야
  • 텍스트/이미지/영상 생성형 AI로 만든 결과물을 ‘진짜’처럼 보이게 배포하는 서비스

3) 핵심 개념 3가지: 고영향 AI, 생성형 AI 표시, 영향평가

3-1) 고영향 인공지능(High-impact AI)

법령 정보에서는 고영향 인공지능을 “사람의 생명·신체 안전 및 기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 인공지능시스템”으로 정의하고, 특정 분야에서의 활용을 전제로 분류합니다.

현장에서는 “우리 서비스가 고영향인가?”가 가장 큰 질문인데, 보도·해설에서는 의료 진단, 채용 심사, 신용 평가 같은 사례가 반복적으로 언급됩니다.

일부 기사에서는 고영향 AI 적용 분야가 에너지·먹는 물·보건의료·원자력·교통·금융·교육·고용·범죄수사/체포 등으로 폭넓게 제시된다고 소개합니다. 다만 세부 판단 기준은 시행령·가이드에서 구체화되는 성격이 강합니다.

3-2) 생성형 AI 결과물 ‘표시(라벨링)’ 의무

생성형 AI 결과물이 실제 촬영·작성물과 혼동될 수 있다면, 서비스 제공자는 이용자가 인지할 수 있도록 “표시”를 요구받을 수 있습니다. 기사에서는 워터마크(가시 표식) 또는 메타데이터(비가시 표식) 방식이 거론됩니다.

정부는 시행령(안) 단계에서 “AI로 생성된 결과물” 고지 취지와 안전 확보 제도(영향평가 포함)의 구체화를 예고한 바 있습니다.

3-3) 인공지능 영향평가(또는 안전 확보 절차)

법의 큰 방향은 “AI를 쓰지 마라”가 아니라, 위험이 큰 분야에서는 영향을 평가하고, 운영 과정에서 관리·감시 가능한 체계를 갖추라는 것입니다. 시행령·가이드에서 영향평가 항목과 절차가 구체화되는 흐름으로 이해하면 안전합니다.

4) 무엇을 해야 하나: 의무를 ‘실무 체크리스트’로 번역

조문 번호를 한 줄씩 읽는 것보다, 의무를 업무 단위로 쪼개 “누가/언제/어떻게 증빙할지”로 바꾸면 실행이 쉬워집니다.

4-1) 공통 의무(대부분 서비스에 해당될 수 있음)

  • 이용자 고지: AI가 개입하는 순간(예: 자동화 평가, 생성 결과물 제공)을 이용자가 알 수 있게 안내
  • 운영 책임 구조: 개발팀·보안팀·법무/컴플라이언스·CS가 어떤 항목을 책임지는지 문서화
  • 사고 대응: 문제 발생 시(오표시, 오판정, 안전사고) 신고/중단/공지/개선 프로세스 정리

4-2) 생성형 AI 제공자라면(표시/라벨링 중심)

체크 포인트(예시)
1) “AI 생성” 표시가 들어가야 하는 콘텐츠 유형을 분류한다.
2) 표시 방식(가시 워터마크 vs 메타데이터)을 정한다.
3) 파트너/리셀러/외부 배포 채널에서도 표시가 유지되는지 점검한다.
4) 표시 누락 시 재처리·재게시·정정 공지 절차를 만든다.

4-3) 고영향 AI라면(사전 고지 + 인간 감독 + 위험관리)

  • 사전 고지: 이용자(또는 영향 받는 사람)에게 “AI가 중요한 판단에 사용된다”는 사실을 명확히 알림
  • 인간의 감독(휴먼 인 더 루프): 완전 자동결정이 아닌 검토/승인/이의제기 채널 등 통제 장치
  • 운영 리스크 관리: 데이터 품질, 편향/차별 위험, 보안, 성능 저하(드리프트) 모니터링
구분 현장에서 자주 나오는 질문 권장 증빙(문서/로그) 미흡 시 리스크
고영향 판단 우리 기능이 고영향인가? 적용 분야 매핑표, 판단 근거 메모(내부 기준), 기능 설명서 고지/관리 누락 → 시정명령/과태료 가능성
이용자 고지 어디까지 알려야 하나? UI 문구, 고지 노출 로그, 약관/정책 개정 이력 고지 불충분 → 분쟁·평판 리스크
생성물 표시 워터마크 꼭 넣어야 하나? 표시 정책, 자동 삽입 로직, 누락 탐지 리포트 표시 위반 시 과태료 등 제재 가능
사고 대응 문제 터지면 무엇부터? 중단/롤백 절차, 대외 공지 템플릿, 신고 접수 채널 확산 대응 실패 → 추가 피해/감독 강화

5) 처벌·제재: “형사처벌”보다 “시정명령 + 과태료”가 중심

현 시점 보도에서 가장 널리 인용되는 제재 수단은 시정 명령과태료(최대 3천만원)입니다. 특히 생성형 AI 표시 의무 위반(예: 워터마크/고지 미비)에 과태료가 거론됩니다.

5-1) “바로 과태료?” — 유예(계도) 기간 이슈

여러 보도에 따르면, 제도 안착을 위해 최소 1년 수준의 유예(계도) 기간을 두고 곧바로 강한 제재를 집행하지 않겠다는 취지가 언급됩니다. 실무적으로는 “올해는 기준·가이드에 맞춰 내부 통제와 표시 체계를 만드는 기간”으로 보는 쪽이 안전합니다.

주의
“유예 기간”이 있다고 해서 준비가 느슨해지면 오히려 위험합니다.
계도 기간에는 기준이 다듬어지고, 다음 해에는 감독이 ‘증빙’ 중심으로 바뀌는 경우가 많습니다.

6) EU AI Act와 비교하면 뭐가 다르나

“세계 최초”라는 표현이 혼란을 만들기도 합니다. 유럽연합(EU)도 포괄적 AI 규율인 EU AI Act를 추진·시행 단계로 가져갔고, EU는 위반 시 전 세계 매출 비례의 고액 과징금 체계를 강하게 설계했습니다.

6-1) EU AI Act의 벌금(대표 수치)

  • 금지된 AI 관행 위반: 최대 3,500만 유로 또는 전 세계 매출 7%(더 큰 금액 적용)
  • 기타 주요 의무 위반(예: 고위험 요구사항): 최대 1,500만 유로 또는 전 세계 매출 3%(더 큰 금액 적용)

6-2) EU의 “GPAI(범용 AI)” 의무

EU는 범용 AI 모델(GPAI)에 대해서도 의무를 별도로 두고, “시스템적 위험(systemic risk)” 수준의 모델에는 위험평가·사고보고·보안 등 강화된 책임을 부과하는 방향을 분명히 했습니다.

정리
한국 AI기본법: “기본법(진흥+신뢰)” 프레임 안에서 고영향·표시·안전 확보 체계를 구축
EU AI Act: “위험 기반”과 “매출 연동 벌금”으로 강한 집행력을 전면에 배치

7) 지금 당장 해야 할 10분 점검(사업자용)

  • 서비스 기능 목록 중 “채용/신용/의료/안전” 관련 기능이 있는가?
  • 이용자 화면/알림/약관에 “AI 사용” 고지가 들어가 있는가?
  • 생성형 AI 결과물이 외부로 나갈 때 “AI 생성 표시”가 유지되는가?
  • 표시 누락·오판정·사고가 발생했을 때 즉시 중단/정정할 수 있는가?
  • 최소한의 내부 증빙(판단 근거, 정책, 로그)을 준비했는가?

운영 환경에서는 “법을 다 외웠는가”가 아니라 “감사/점검에서 무엇을 보여줄 수 있는가”가 승부처가 됩니다.

8) 자주 묻는 질문

Q1. 워터마크는 무조건 ‘눈에 보이게’ 해야 하나요?

보도에서는 가시 워터마크 또는 메타데이터 표식이 함께 언급됩니다. 실제 의무의 디테일은 시행령·가이드에서 구체화되는 성격이 강하므로, “표시가 요구되는 콘텐츠 범위”와 “표시 방식”을 내부 정책으로 먼저 정해두는 게 안전합니다.

Q2. 우리 서비스가 고영향 AI인지 애매합니다.

업계에서도 모호하다는 지적이 꾸준히 나오고 있습니다. 가장 실용적인 접근은 (1) 적용 분야 매핑 → (2) 사람의 생명·신체·기본권 영향 경로 작성 → (3) 고지/감독 장치 유무 점검의 3단계로 정리하는 것입니다.

Q3. 과태료는 바로 나오나요?

보도에 따르면 최소 1년 수준의 계도/유예 기간이 거론됩니다. 다만 유예는 “준비 기간”의 의미에 가깝고, 이후에는 표시·고지·증빙의 존재 여부가 핵심 포인트가 될 가능성이 큽니다.

반응형