HIGH RISK AI WARNING

고위험 인공지능
시스템 분류 목록

AI기본법 제28조에 따른 고위험 인공지능 시스템 8대 분류와 각 영역별 준수사항을 확인하세요. 귀사의 AI 시스템이 고위험에 해당하는지 판단하고 적절한 대비를 시작하세요.

8 고위험 분류
27 세부 영역
12 핵심 의무

바이오인식

얼굴, 지문, 홍채 등 생체정보 기반 식별 시스템

안전 인프라

전기, 가스, 교통 등 핵심 인프라 관리

채용/고용

이력서 분석, 면접 평가, 승진 결정

법집행

범죄 예측, 증거 분석, 양형 추천

8대 고위험 분류

고위험 AI 시스템 전체 목록

AI기본법 제28조 및 시행령에 따라 규정된 고위험 인공지능 시스템의 8대 분류와 세부 적용 영역을 확인하세요.

CRITICAL

1. 바이오인식 정보 처리

생체정보를 활용한 개인 식별 및 분류 시스템

해당 AI 시스템 예시

  • 실시간 원격 얼굴인식 시스템
  • 공공장소 생체인식 CCTV
  • 감정/심리 상태 분석 AI
  • 행동 패턴 기반 개인 식별
HIGH

2. 핵심 인프라 관리

안전 관련 주요 기반시설의 운영 및 관리

해당 AI 시스템 예시

  • 전력망 운영 최적화 시스템
  • 가스/수도 공급 관리 AI
  • 교통 신호 제어 시스템
  • 원자력 시설 안전 관리
HIGH

3. 교육/직업훈련 접근

교육 기회 및 자격 평가에 영향을 미치는 결정

해당 AI 시스템 예시

  • 입학 심사 자동화 시스템
  • 학생 성적 예측/평가 AI
  • 학습 능력 분류 시스템
  • 직업훈련 추천/배정 AI
HIGH

4. 채용/고용 관리

고용 관계에 중대한 영향을 미치는 의사결정

해당 AI 시스템 예시

  • 이력서 자동 스크리닝 시스템
  • AI 면접관/면접 분석
  • 성과 평가 자동화 시스템
  • 승진/해고 추천 AI
HIGH

5. 필수 서비스 접근

필수 공적/민간 서비스 접근 및 자격 평가

해당 AI 시스템 예시

  • 신용 평가/대출 심사 AI
  • 보험 가입 심사 시스템
  • 사회복지 수급 자격 판정
  • 긴급 서비스 우선순위 결정
CRITICAL

6. 법집행 분야

수사, 체포, 기소 등 법집행 관련 의사결정

해당 AI 시스템 예시

  • 범죄 예측/핫스팟 분석
  • 용의자 프로파일링 시스템
  • 디지털 증거 분석 AI
  • 거짓말 탐지/행동 분석
HIGH

7. 출입국/이민 관리

출입국 심사, 비자 발급, 난민 심사 관련

해당 AI 시스템 예시

  • 출입국 자동 심사 시스템
  • 비자 신청 자동 심사 AI
  • 난민 지위 판정 보조
  • 위험 인물 자동 탐지
CRITICAL

8. 사법 행정

재판, 양형, 집행 관련 사법적 의사결정

해당 AI 시스템 예시

  • 재범 위험성 평가 시스템
  • 양형 추천 AI
  • 가석방 심사 보조 시스템
  • 법률 문서 분석/판결 예측
사업자 의무

고위험 AI 운영자 준수사항

고위험 인공지능을 개발, 제공, 운영하는 사업자가 반드시 이행해야 하는 핵심 의무사항입니다.

사전 영향평가

서비스 출시 전 기본권, 안전, 차별 영향에 대한 체계적인 사전 영향평가를 실시하고 문서화해야 합니다.

위험 관리 체계

식별된 위험을 최소화하기 위한 기술적, 조직적 조치를 포함한 위험 관리 체계를 구축해야 합니다.

데이터 거버넌스

학습 데이터의 품질, 편향성, 대표성을 관리하고 데이터 출처와 처리 과정을 문서화해야 합니다.

투명성 확보

AI 사용 사실 고지, 결정 요인 설명, 이용자 정보 접근권을 보장해야 합니다.

인적 감독

AI 결정에 대한 인간의 개입과 감독이 가능한 체계를 마련해야 합니다.

기록 유지

시스템 로그, 성능 기록, 감사 이력을 규정된 기간 동안 보관해야 합니다.

시행 일정

AI기본법 주요 시행 일정

고위험 AI 관련 규정의 단계별 시행 일정을 확인하세요.

2024년 12월

AI기본법 국회 통과

인공지능 발전과 신뢰 기반 조성 등에 관한 기본법 국회 본회의 통과

2025년 1월

법률 공포

대통령 공포 및 시행령 초안 발표, 업계 의견 수렴 시작

2025년 6월

시행령 확정

고위험 AI 분류 기준 및 세부 준수사항 시행령 최종 확정

2026년 1월

법률 전면 시행

AI기본법 전면 시행, 고위험 AI 의무사항 적용 시작

2026년 7월

유예기간 종료

기존 고위험 AI 시스템 준수 유예기간 종료, 과태료 부과 시작

관련 법규 및 출처

고위험 AI 관련 법규 총정리

2025년 기준 고위험 AI에 적용되는 국내외 주요 법규와 가이드라인입니다.

🇰🇷 AI기본법

  • AI기본법 원문 법제처 국가법령정보센터
  • 시행령 입법예고 과기정통부 보도자료
  • 시행일: 2026.1.22 공포 후 1년 (계도기간 1년 추가)
  • 고영향 AI 8대 영역 바이오인식, 안전, 채용, 금융 등

🇪🇺 EU AI Act

⚖️ 한-EU 비교

  • 접근방식 원칙 중심 vs 규칙 중심
  • 규제 강도 상대적 유연 vs 엄격
  • 인증 제도 자율 검증 vs 강제 인증
  • 금지 AI 명시 없음 vs 4개 금지
  • 시행일 2026.1월 vs 2026.8월

AI기본법 8대 고영향(고위험) AI 영역

1. 바이오인식

안면인식, 지문, 홍채

2. 핵심 인프라

교통, 에너지, 통신

3. 교육·훈련

입학, 성적평가, 학습

4. 채용·인사

채용, 승진, 해고

5. 필수 서비스

금융, 보험, 복지

6. 법집행

범죄 예측, 수사

7. 출입국

비자, 난민, 입국심사

8. 사법행정

재판, 분쟁해결

고위험 AI 컴플라이언스 지원

과학기술정보통신부 정보통신산업진흥원 (NIPA) KAITRUST 컨설팅
자주 묻는 질문

고위험 AI FAQ

고위험 인공지능 시스템 분류 및 규제에 관한 자주 묻는 질문과 답변입니다.

AI 시스템이 8대 고위험 영역(바이오인식, 안전 인프라, 교육, 채용, 필수 서비스, 법집행, 출입국, 사법)에서 의사결정에 사용되거나 의사결정을 지원하는 경우 고위험으로 분류됩니다. 단순 보조 도구나 최종 결정에 영향을 미치지 않는 시스템은 제외될 수 있습니다.
고위험 AI를 운영하는 모든 사업자에게 의무가 적용됩니다. 다만, 중소기업의 경우 유예기간 연장, 간소화된 영향평가 양식, 정부 지원 프로그램 등의 혜택이 제공될 예정입니다. 구체적인 지원 내용은 시행령에서 규정됩니다.
국내 이용자를 대상으로 서비스를 제공하는 해외 AI 사업자도 AI기본법의 적용을 받습니다. 고위험 영역에서 서비스를 제공하는 경우 동일한 의무사항을 준수해야 하며, 국내 대리인 지정 등의 추가 요건이 적용될 수 있습니다.
의무 위반 시 시정명령, 과태료 부과, 서비스 중단 명령 등의 행정 처분이 가능합니다. 중대한 위반의 경우 매출액의 일정 비율을 과징금으로 부과할 수 있으며, 형사 처벌 대상이 될 수도 있습니다. 구체적인 과태료 기준은 시행령에서 규정됩니다.
최초 서비스 출시 전 사전 영향평가가 필수이며, 이후 정기적인 재평가가 요구됩니다. 시스템의 중대한 변경, 신규 데이터 학습, 적용 범위 확대 등의 경우에도 추가 영향평가를 실시해야 합니다. 일반적으로 연 1회 이상의 정기 재평가가 권고됩니다.
법 시행 전부터 운영 중인 기존 시스템에는 6개월의 유예기간이 부여됩니다. 이 기간 동안 영향평가 실시, 위험 관리 체계 구축, 투명성 조치 등을 완료해야 합니다. 유예기간 내 준수하지 못할 경우 서비스 중단을 명령받을 수 있습니다.
인적 감독은 AI 결정을 검토하고 수정/거부할 수 있는 인간의 개입을 의미합니다. 자동화된 결정의 경우 이용자가 인간 검토를 요청할 권리가 보장되어야 하며, 중대한 결정에 대해서는 최종 승인이 인간에 의해 이루어져야 합니다.
현재 법률에는 강제적인 인증 제도가 포함되어 있지 않습니다. 다만, 자율적인 신뢰성 검증 제도가 운영될 예정이며, 정부 인정 기관의 검증을 받은 경우 법적 분쟁 시 유리한 입증 자료로 활용될 수 있습니다.
한국 AI기본법은 EU AI Act의 위험 기반 접근법을 참고했지만, 국내 실정에 맞게 조정되었습니다. 고위험 분류 범위, 규제 강도, 예외 조항 등에서 차이가 있으며, 한국법이 상대적으로 유연한 규제 체계를 채택하고 있습니다.
고위험 AI의 경우 결정에 영향을 미친 주요 요인에 대한 설명 제공이 의무화됩니다. 반드시 완전한 기술적 XAI를 구현할 필요는 없으나, 이용자가 이해할 수 있는 수준의 설명이 제공되어야 합니다.
순수 연구개발 목적의 AI 시스템은 규제 대상에서 제외됩니다. 다만, 실제 사용자를 대상으로 한 테스트나 파일럿 서비스의 경우 규제가 적용될 수 있으며, 연구 목적이라도 개인정보 처리 등 다른 법률의 적용은 받습니다.
과학기술정보통신부 산하 AI 관련 기관에서 가이드라인과 컨설팅을 제공할 예정입니다. 한국인공지능윤리협회(KAITRUST)에서도 영향평가, 컴플라이언스 진단, 교육 프로그램 등 다양한 지원 서비스를 제공하고 있습니다.

귀사의 AI 시스템이
고위험에 해당하나요?

KAITRUST의 고위험 AI 진단 서비스를 통해 귀사의 AI 시스템을 점검하고 대비하세요.