EU AI Act: 요약, 타임라인 및 영향에 대한 완벽한 안내

EU AI Act: 요약, 타임라인 및 영향에 대한 완벽한 안내

14 분 독서

EU 인공지능 법안 소개

세계 최초 종합적 AI 법률 이해

유럽 연합은 선구적인 인공지능(이하 AI) 규제를 통해 인간 중심, 신뢰성 있고 기본권 및 안전에 부합하는 AI 개발을 지향하며, 회원국 간에 AI 규칙을 조화시키는 업적을 담은 AI 법률을 이끌어내었다. 이 법은 중요한 측면으로, 혁신과 기술 발전을 촉진하면서도 윤리적 기준과 개인 보호를 희생하지 않는 균형있는 프레임워크를 구축하는 데 목적을 두고 있다.

EU AI 법률의 목표

AI 법률은 혁신과 기술 발전을 유지하면서도 윤리적 기준과 개인 보호를 보장하려는 균형 잡힌 프레임워크를 확립하기 위해 노력하며, 고위험 AI 적용에 대한 구체적인 규정을 도입하여 투명성을 강제하고, EU 내에서의 AI 배포를 감독하는 지배 구조를 제시한다.

EU의 디지털 전략과 AI

AI 규제의 혜택: 의료부터 에너지까지

규제는 의료, 교통 및 에너지와 같은 다양한 분야에 통제된 AI 개발이 가져다 줄 수 있는 수많은 혜택을 강조한다. EU는 AI를 사회적으로 이익을 도모하기 위해 명확한 지침을 제시하여 효율성, 안전성 및 지속 가능성을 향상시킬 것이다.

규제로 가는 길: 유럽 위원회의 제안

유럽 위원회가 주도한 AI 법안은 디지털 시대에서 EU를 글로벌 리더로 정립하기 위한 전 방위적 디지턈 전략의 일부이다. 이 제안은 AI 시스템이 엄격한 윤리적 및 안전 기준 하에서 개발되고 배포되도록 하는 위험중심적 접근법을 개요로 하고 있다.

EU 의회가 원하는 AI 제도

안전, 투명성, 환경 친화성 보장

유럽 의회는 안전, 투명성 및 환경 지속성을 우선시하는 AI 시스템을 촉구한다. 이 법은 AI가 공공 이익을 위해 이해하기 쉬우며 인간 감독하에 있어야 하며, 부정적 영향 없이 봉사해야 한다고 강조한다.

AI에 대한 통일적 정의 요구

AI 법의 중요한 부분은 통일적이고 기술적 중립적 AI 정의를 확립하려는 시도다. 이것은 법규가 미래 기술 발전에 대응할 수 있는 정의를 보장하며 AI 제도에 안정적인 기반 제공을 의도한다.

AI 법: 위험 분류와 규칙 설정

다양한 위험 수준 탐색: 받아들일 수 없는 위험부터 최소한의 위험까지

AI 법은 위험 수준에 따른 AI 응용프로그램의 혁신적인 분류 체계를 도입했다. 이 구조는 최소부터 고위험 AI 시스템까지 비례적인 수준의 규제 검토를 실시하여, 높은 위험 응용프로그램에 엄격한 평가가 이뤄지도록 보장한다. 여기에는 위험 수준에 대한 요약, 규정 요건, 사례 연구 및 유사 사례에 대한 사례가 포함된다.

EU AI 법: 위험 중심 시스템 분류

특정 금지 사항: 받아들일 수 없는 위험 AI 시스템

이 규제는 특정 AI 요소를 받아들일 수 없는 위험으로 식별하여 금지했으며, 공공의 권리와 안전을 보호하겠다는 EU의 의지를 반영한다. 요건은 다음과 같다:

  • 잠재적인 위협: 고위험 AI 시스템에 의한 중요한 피해 발생 가능성 (건강, 안전, 기본 권리)에 대한 규정
  • 예: 채용/인력과 법 집행에 사용되는 AI

고위험 AI 시스템 설명

고위험 AI 응용 프로그램의 범주

고위험 AI 시스템은 의료, 교통, 공공 서비스 등 중요한 부문에 영향을 끼치는 응용프로그램으로 정의되었다. 이러한 시스템은 데이터 관리, 기술 문서 및 투명성 등 엄격한 요구사항을 감수하며, 위험 완화와 책임을 확인한다.

고위험 시스템의 의무와 평가

이 법은 고위험 AI 시스템에 대한 종합적인 의무를 수반하며, 인간 감독, 정확성, 사이버 보안 등에 중점을 두고 있다. 종합적인 의무에는 다음과 같은 것들이 포함된다:

  • 위험 관리 시스템: AI 시스템의 수명주기 내에서 건강, 안전 및 기본권과 관련된 위험을 식별하고 완화하기 위한 연속적이고 반복적인 과정을 확립
  • 데이터셋의 품질 및 관련성: 훈련, 유효성 검증 및 시험용으로 사용되는 데이터셋이 목적에 부합, 충분히 대표적이며 가능한 한 오류가 없도록 보장
  • 기술 문서: 규정 준수 평가 및 사후 시장 감시를 용이하게 하는 필요한 정보를 제공하는 최신 기술 문서 유지
  • 기록 보관: AI 시스템이 운영 기간 동안 자동으로 로그(이벤트)를 생성할 수 있도록 보장
  • 투명성과 정보 제공: AI 시스템의 작동 원리를 알 수 있도록 충분히 투명화하고 사용 명령 조건을 명확하고 포괄적으로 제공하도록 설계
  • 인간 감독: AI 시스템이 사용 중에 자연인에 의해 효과적으로 감독될 수 있도록 적절한 인간 감독 조치를 시행
  • 정확성, 견고성 및 사이버 보안: AI 시스템이 적절한 수준의 정확성, 견고성 및 사이버 보안을 달성하고 수명주기 내에서 일관되게 작동
  • 규정 준수 평가: 시장에 출시하기 전이나 시용하려면 관련 준수 평가 과정을 거쳐야 하는 요구사항
  • CE 마킹: 규정 준수를 나타내기 위해 AI 시스템에 CE 마킹 부착
  • 등록: 시장 또는 사용에 앞서 AI 시스템을 EU 데이터베이스에 등록
  • 접근성 요구 사항: 제품 및 서비스의 접근성 및 공공 단체의 웹사이트 및 모바일 애플리케이션의 접근성을 준수

AI 시스템의 투명성 요구 사항

창조적 AI와 투명성의 필요성

고위험 AI 적용이 아니더라도 창조적 AI 시스템은 투명성 요구를 준수해야 한다. 이는 AI로 생성된 콘텐츠가 AI로 생성되었음을 명시해야 하며, 사용자가 정보에 근거하여 선택할 수 있도록 해야 한다.

AI로 생성된 콘텐츠 명명

AI 법이 중요하게 다룬 부분으로, AI로 생성된 콘텐츠, 예를 들어 딥페이크나 합성 미디어 등을 명확하게 명명하는 것이 중요하다. 이는 사용자가 AI로 생성된 콘텐츠와 실제 콘텐츠를 구분할 수 있도록 하며, 혼동 및 오인을 방지하며 사용자가 AI로 생성된 콘텐츠와 진짜 콘텐츠를 구별할 수 있도록 한다.

상세한 투명성 요구 사항

  • 자연인과의 상호 작용: 자연인과 직접적으로 상호 작용하는 AI 시스템 제공업체는 사용자가 AI 시스템과 상호 작용 중임을 명백히 알려주어야 하며, 상황과 사용자의 지식과 인식 수준이 명백한 경우에는 제외한다.
  • 합성 콘텐츠 생성: AI 시스템을 통해 합성된 오디오, 이미지, 비디오 또는 텍스트 콘텐츠를 제공하는 업체는 결과물을 기계가 판독할 수 있는 형식으로 표시하고, 콘텐츠가 인공적으로 생성되거나 조작되었을 수 있도록 보장해야 한다. 구현된 기술 솔루션은 기술적으로 실행 가능한, 강력하며 신뢰성 있어야 한다.
  • 감정 인식과 생체 분류 시스템: 감정 인식이나 생체 분류 시스템을 사용하는 업체는 개인들에게 이러한 시스템의 작동방식에 대해 정보를 제공하고 개인 데이터 처리를 관련 데이터 보호 규정에 준수하여야 한다.
  • 딥페이크(조작된 콘텐츠): 딥페이크 또는 조작된 콘텐츠를 생성하는 AI 시스템을 적용하는 업체는 해당 콘텐츠가 인공적으로 생성 또는 조작되었음을 공개해야 한다. 다만 창조적, 풍자적, 예술적 또는 가상 작업의 일부인 경우, 또는 AI 생성 콘텐츠가 인간 검토나 편집적 통제를 받았을 경우에는 그렇지 않다.
  • 공공 이익 텍스트 생성: 공공 이익 사항을 위해 텍스트를 생성하는 AI 시스템을 적용하는 업체는 인간 검토나 편집적 통제와 편집적 책임이 없을 경우, 그 용하여 생성된 텍스트가 인공적으로 생성 또는 조작되었음을 공개해야 한다.
  • 명확하고 구별 가능한 정보: 자연인에게 제공되는 정보는 접근성 요구 사항을 준수하여 명확하고 구별 가능하게 제시되어야 한다.
  • 고위험 AI 시스템 등록: 고위험 AI 시스템의 제공자와 적용 업체는 시장에 출시하기 전이나 시용하기 전에 자신들의 시스템을 EU 데이터베이스에 등록해야 한다.

지배와 시행

이 규정의 중요한 측면은 AI 사무실을 중심으로 하는 지배 구조를 확립하는 것으로, AI 사무실은 법률의 시행 및 감시를 지원하는 중요한 역할을 한다. 고위험 AI 시스템을 위해 EU 전체적인 데이터베이스가 설립되어 감독 및 준수를 편리하게 하는 것에 대한 규정도 있다. 또한, 국가 관할 당국, 시장 감시 당국 및 유럽 데이터 보호 감독관의 역할을 구분하여 EU에서의 AI 지배를 조직적으로 실현하고 있다.

벌칙과 과금

규정은 전 세계의 연간 총 매출액에 기초한 행정 과태료 또는 고정 금액을 통해 위반에 대한 벌칙과 과금을 규정하고 있다.

  • 제5조에서 언급된 일부 AI 실천법 위반에 대한 과태료는 전 세계 연례 매출액의 최대 €35,000,000 또는 그중 높은 금액의 7%로 한다.
  • 제5조와 관련된 다른 규정에 대한 영업자나 알림 몸체에 대한 준수를 위반하는 경우, 과태료는 전 세계 연례 매출액의 최대 €15,000,000 또는 그중 높은 금액의 3%로 한다.
  • 알림 몸체와 국가 관할 당국에 잘못된, 불완전한 또는 오해를 삽입한 정보를 제공하는 경우, 과태료는 전 세계의 연례 매출액의 최대 €7,500,000 또는 그중의

뉴스레터 구독하기

최신 기업 비즈니스 및 기술 정보를 독점적으로 엿보며 새로운 오퍼링을 확인하세요