AIㆍML

기본권 보호와 혁신의 제동 사이에서 고민하는 유럽 AI 법 : 핵심 내용과 업계 반응

Martin Bayer | COMPUTERWOCHE 2023.12.12
2년 반 동안의 힘든 협상 끝에 유럽연합은 인공지능 사용에 관한 일련의 규칙에 합의했다. 그러나 AI 법은 여전히 논란의 여지가 있으며 많은 논쟁의 대상이 될 것으로 보인다.

3일간의 마라톤 회의 끝에 EU는 향후 AI 사용에 대한 규칙에 합의했다. 유럽이사회의 발표에 따르면, AI 법은 유럽 시장에 출시되어 EU에서 사용되는 AI 시스템이 안전하고 EU의 기본 권리와 가치를 존중하도록 보장하기 위한 것이다. 또한 유럽에서 AI 분야의 투자와 혁신을 촉진하는 것을 목표로 한다.
 
ⓒ Getty Images Bank

EU 회원국들은 수년 동안 AI 사용에 대한 규칙을 협상해 왔다. EU 집행위원회는 2021년 4월에 법안을 발의했고, 여러 국가와 EU 의회를 거쳐 2023년 여름부터 최종 3자 논의를 진행했다. 마지막까지 치열한 논쟁이 벌어졌고, 2023년 12월 9일 밤이 되어서야 티에리 브르통 EU 디지털 담당 집행위원이 '합의'를 발표했다.
 

AI 법의 핵심 내용

  • 앞으로 AI 시스템은 위험 등급에 따라 분류된다. 개인의 기본권이나 사회 전반에 미치는 영향 측면에서 잠재적 위험이 높을수록 해당 AI 애플리케이션의 투명성 및 문서화 요구 사항이 높아진다.
  •  
  • 특정 AI 애플리케이션은 완전히 금지된다. 여기에는 안면 인식이나 감정 기록, 사회적 점수 매기기, 개인의 성적 지향과 종교적 또는 정치적 신념에 대한 결론을 도출할 수 있는 데이터 수집 및 분석 등 광범위한 감시를 위한 시스템이 포함된다. 그러나 예외가 있다. 법 집행 당국은 테러 공격과 같은 위협을 방어하거나 가장 심각한 범죄 혐의를 받는 사람을 수색하는 등 특정 상황에서 실시간 원격 생체 인식 시스템을 사용할 수 있도록 허용해야 한다. 
  •  
  • 오픈AI의 GPT, 구글의 제미니, 메타의 라마와 같은 LLM은 특히 면밀한 조사를 받고 있다. AI 법에 따르면, 이런 범용 인공지능(GPAI) 시스템 개발자는 특별한 요건을 충족해야 한다. 예를 들어, GPAI 모델이 어떻게 훈련되고 테스트되는지를 보여주는 자세한 문서를 제공해야 한다. 또한 사용된 학습 데이터가 저작권법에 따라 올바르게 사용됐음을 입증해야 한다. 이미지나 텍스트와 같이 AI로 생성된 제품에는 워터마크를 표시해야 한다.
  •  
  • 법률 위반에 대해서는 EU 집행위원회 내에 설치될 별도의 AI 기관에서 모니터링할 예정이다. 또한 국가별 담당 기관도 개별 국가의 AI 사용을 모니터링한다. 여기서 얻은 정보는 AI 유럽위원회에서 논의될 것이다. 또한 시민사회를 포함한 다양한 이해관계 단체가 의견을 제시할 수 있는 자문기구로 AI 자문위원회를 설립할 예정이다. 일종의 과학자문위원회로, 정치인들에게 AI 법의 시행에 대해 조언하는 역할을 한다.
  •  
  • AI 법은 군사 또는 국방 목적으로만 사용되는 시스템에는 적용되지 않는다. 연구 및 혁신 목적으로만 사용되는 AI 시스템도 새로운 규정의 적용을 받지 않는다.
  •  
  • AI 법을 위반하는 사람은 누구에게나 벌금이 부과될 수 있다. 금액은 연간 글로벌 매출액 또는 미리 정해진 특정 금액 중 더 높은 금액에 따라 달라진다. 금지된 AI 애플리케이션을 위반한 경우 3,500만 유로 또는 매출액의 7%, AI 법의 의무를 위반한 경우 1,500만 유로 또는 3%, 허위 정보를 제공한 경우 750만 유로 또는 1.5%가 부과된다. 소규모 기업 및 스타트업에 대한 벌금은 약간 감면될 예정이다.
  •  
  • 이 규정은 혁신을 억제하기 위한 것이 아니다. 혁신적인 AI 시스템의 개발, 테스트 및 검증을 위한 통제된 환경을 조성하기 위한 AI 샌드박스도 앞으로 가능해질 것이다. 전반적으로 AI 법에는 특정 안전장치를 전제로 실제 조건에서 AI 시스템을 테스트할 수 있는 조항도 포함되어 있다. 여기서 소규모 기업도 배제되어서는 안된다. 정치인들은 이를 위해 필요한 행정적 노력을 최소화한다.

앞으로 몇 주 안에 AI 법안이 확정되어 비준을 위해 EU 기관에 제출될 예정인데, 비준은 형식적인 절차에 불과하다. AI 법이 발효되면 개별 회원국은 2년 내에 해당 규정을 국내법에 반영해야 한다.
 

AI 법에 대한 각계 각층의 반응


카르메 아르티가스, 스페인 디지털화 및 AI 장관, 유럽의회 각료
이것은 역사적인 성과이자 미래를 위한 큰 이정표이다. 오늘의 합의는 전 세계적인 과제를 해결할 것이다. 우리는 우리 사회와 경제의 미래를 위한 핵심 분야에서 빠르게 발전하는 기술 환경을 다루고 있다. 우리는 유럽 전역에 걸쳐 혁신과 인공지능의 확산을 촉진하는 동시에 시민의 기본권을 온전히 보호하는 매우 섬세한 균형을 유지해 왔다.

패트릭 브레이어, 해적당 유럽의회 의원
"수배자 한 명을 찾으려고 모두 감시한다고? 생체 인식 대규모 감시에 대한 이 합법적 지침에 따라 우리의 얼굴은 공공장소에서 언제 어디서나 의심 없이 스캔될 수 있다. 법에 명시된 범죄 용의자 수천 명은 항상 법원 명령에 따라 수배를 받고 있다. 우리는 더 이상 끊임없는 감시에서 자유롭지 못하다! 실제로 공공장소에 대한 생체 인식 대규모 감시는 아직 단 한 명의 테러리스트도 발견하지 못했고 단 한 건의 테러 공격도 막지 못했으며, 오히려 무고한 사람들을 무수히 체포하고 최대 99%의 잘못된 용의자를 만들고 있다. 이 법은 불신의 문화를 합법화하고 정상화한다. 이 법은 중국을 모델로 한 불신의 첨단 감시 국가라는 디스토피아적 미래로 유럽을 이끌고 있다.

베른하르트 롤레더, 비트콤 총괄 책임자
"AI 법안 합의는 경제와 사회를 희생시키면서까지 정치적 성공을 과시하기 위한 것이다. 이 타협안은 특히 생성형 AI를 규제하는 데는 도를 넘었고, 기술 발전을 심각하게 방해하고 있다. 따라서 EU는 기업의 다리에 규제 블록을 묶고 있다. 비현실적인 계획으로 인해 유럽 기업은 향후 빠른 기술 발전을 따라잡지 못할 위험이 커졌다. 이전에 의도했던 애플리케이션 및 위험 기반 접근 방식에서 불필요하게 벗어난 것이다. 소위 범용 AI 모델은 특정 애플리케이션과 관계없이 그 자체로 하나의 기술로 규제되고 있다. 실천 강령을 통한 의무적 자율 규제라는 입증되고 근본적으로 환영할 만한 수단을 활용해야 한다. 그러나 이는 전체 요건 중 극히 일부만을 대상으로 하며, 대부분 법률 자체에 엄격하게 규정되어 있다. 따라서 특히 중요한 AI 분야가 새로운 기술 발전에 적응할 수 없는 요건에 의해 제한될 위험이 있다. AI 법 자체에 대한 협상은 이미 그런 필수적인 변화가 얼마나 어려운지를 보여줬다."

요아킴 뷜러, TÜV 협회 총괄 책임자
"유럽은 AI 법을 통해 인공지능은 안전해야 한다는 분명한 신호를 전 세계에 보내고 있다. 기술이 사람을 위험에 빠뜨리거나 불이익을 주어서는 안된다. AI 규정에 명시된 위험 기반 규제는 복잡한 기술에 대한 실용적인 접근 방식이다. 강력한 범용 AI 시스템은 앞으로 기본적인 안전과 투명성 요건을 충족해야 한다. AI 법 합의로 유럽연합은 안전하고 신뢰할 수 있는 인공지능 생태계를 조성하는 세계 최초의 경제권이 됐다."

비아체슬라프 그로모프, AI 서비스 업체 AITAD 총괄 책임자
"EU AI 법안은 많은 걱정을 안겨준다. EU는 스스로 선구자라고 생각하지만, 보호주의에 빠져 있다. 저작권 문제가 기본 모델 중요도 분류 문제를 덮어버렸다. 우리는 문서, 기술 증명 및 데이터베이스 "투명성"의 관료적 혼란이 어떤 장애물을 만들어 내는지 보게 될 것이다. 일부는 지정학적으로 기뻐할 것이다. 신생 산업에서 앞다퉈 도망치거나 알레프 알파(Aleph Alpha) 같은 서비스로 움츠러들 것이다. 미국에는 젊잖은 법령만 있었다. 그리고 세 나라의 제안은 놀랍게도 늦었고, 대부분 프랑스의 주장이었다. 독일 녹색당 대표 로버트 하벡이 기술과 애플리케이션을 분리하는 것이 영리하다고 생각했지만, 독일이 정상에 오르지 못한 것이 안타깝다. 또 다른 기회가 있다고 생각한다. AI 책임 문제는 여전히 전 세계적으로 거의 해결되지 않고 있다(LA/샌프란시스코의 테스트 파일럿 프로젝트의 끔찍한 결과와 백지화 참조). 책임 소재를 명확히 하고, 책임을 제한하고, 샌드박스를 도입하면 현재 준비 중인 책임에 관한 EU 지침이 발효되기 전에 전 세계 AI 산업을 입지적 요인으로 끌어들일 수 있는 기회도 있을 것이다."

올리버 슈메, 인터넷산업협회 에코 이사회 의장
"EU는 AI 규제의 선구자가 되기를 원했지만, 현재 제시된 유럽 AI 법안에 대한 합의로 유럽이 디지털 및 AI 지역으로서 유리한 위치를 차지했는지는 의문이다. 특히 독일, 프랑스, 이탈리아가 기초 모델과 생성형 AI 규제에 대한 행동 강령 접근법으로 유럽 의회를 설득하지 못한 것은 유감이다. 반면에 공공장소에서 실시간 생체 인식 기술을 전면 금지하지 않기로 한 결정은 국민들의 AI에 대한 신뢰를 더욱 떨어뜨리고 새로운 디지털 기술에 대한 수용을 더욱 약화시킬 가능성이 높다. 결국 유럽에서 혁신적인 AI 생태계를 활성화할 수 있는 기회를 놓친 셈이다. 이제는 GDPR의 실수를 반복하지 않도록 하는 것이 중요하다. 유럽 내 AI 기업을 위한 정말로 공정한 경쟁의 장이 필요하다."

피터 반 데르 푸텐, 페가시스템즈 AI 연구소 이사
"유럽의회는 법 집행과 생체인식 분야에서 AI 시스템을 사용하는 것에 대해 마지막까지 논쟁이 있었지만 합의에 이르렀고, 이제 세부 사항만 남았다. EU 법안은 AI의 현명한 사용을 촉진하기 위한 것이며, 신뢰할 수 있는 AI 분야의 혁신을 제한하기보다는 지원하도록 설계됐다. 지금 합의된 규정이 없다면 공정한 경쟁의 장이 마련될 수 없고, 궁극적으로 AI의 지속 가능한 미래도 기대할 수 없다. 이 '브뤼셀 효과'의 영향을 지켜보는 것은 흥미로운 일이 될 것이다. 글로벌 기업은 EU의 고객 및 시민들과 일할 때 어쨌든 이 법의 핵심 개념을 적용해야 하기 때문에 사실상의 표준으로 채택할 것으로 예상된다. 이제 기업은 책임감 있는 AI 사용에 대해 진지하게 검토해야 할 법적 의무가 생겼다. AI 법 초안은 올바른 목적과 올바른 방식으로 AI를 사용하는 데 필요한 구조와 지침을 제공할 것이다. 또한 모든 이해관계자가 수많은 이점을 효과적으로 활용할 수 있도록 해야 한다. 예를 들어, 기업은 자동화된 의사결정을 내리는 방식에 대해 보다 명확하고 투명하게 공개해야 한다. 여기에는 어떤 규칙과 솔루션을 사용하는지, 자동화된 결정의 편향성을 어떻게 테스트하는지 등이 포함된다. AI 법은 AI 기술 사용의 법적 확실성과 투명성 강화를 위한 중요한 첫걸음이다. 빠르게 변화하는 AI 솔루션의 가능성과 사용례를 고려할 때, 앞으로의 발전 과정을 지켜보는 것도 흥미로울 것이다. EU는 지금 당장 필요한 지침을 발표한 것이다."

베른트 그라이페네더, 다이나트레이스 설립자 겸 CTO
"생성형 AI 분야에서 더 많은 투명성을 확보하기 위해서는 인과 또는 예측 AI와 같이 설명 가능한 다른 형태의 AI와 어떻게 결합할 수 있는지 보여주는 것이 중요할 것이다. 이런 유형의 AI는 확률론적 접근 방식을 따르지 않는다는 점에서 생성형 모델과 근본적으로 다르기 때문이다. 정확성을 위해 설계됐으며, 메인별 컨텍스트 관련 데이터를 활용하는 그래프 기반 및 통계 모델을 사용한다. 따라서 특정 사용례에 더 적합하고 환각과 편견에 더 강하다. 또한 이런 인사이트가 AI의 '블랙박스'에 숨겨져 있는 것이 아니라, 생성된 답변이 신뢰할 수 있는 자동화로 이어질 것이라는 믿음을 가질 수 있도록 투명하게 설계됐다. AI 모델 간의 이런 중요한 차이점을 명확하게 제시한다면 EU AI 법은 좋은 출발을 할 수 있을 것이다."
editor@itworld.co.kr

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.