2024년 8월 1일, 유럽 전역에서 역사적인 법안이 발효되었습니다. 바로 유럽 인공지능법(AI법)입니다. 이 법은 인공지능(AI) 기술이 우리 사회에서 점점 더 큰 역할을 하고 있는 가운데, 시민의 건강, 안전, 기본권을 보호하기 위해 마련된 법적 프레임워크로서 주목받고 있습니다.
유럽 인공지능법의 배경과 주요 내용
유럽 인공지능법은 2021년 4월 유럽 위원회가 처음으로 제안하였으며, 2023년 12월 유럽 의회와 이사회에서 최종 합의가 이루어졌습니다. 이 법의 주요 목적은 AI 기술이 가져올 수 있는 잠재적인 위험을 관리하면서도 혁신을 촉진하는 것입니다. 법안의 핵심은 AI 시스템을 그 위험도에 따라 분류하고, 각각의 분류에 따른 적절한 규제를 도입하는 데 있습니다.
최소한의 위험: 스팸 필터나 AI 기반 비디오 게임과 같은 대부분의 AI 시스템은 최소한의 위험을 가지고 있어, AI법에 따른 특별한 규제 의무는 없습니다. 그러나, 기업은 자발적으로 더 높은 수준의 윤리적 기준을 준수하기 위해 행동 강령을 채택할 수 있습니다.
특정 투명성 위험: 챗봇과 같은 시스템은 사용자가 기계와 상호작용하고 있음을 명확히 알릴 의무가 있습니다. 이와 같이 특정 AI 생성 콘텐츠는 반드시 표시되어야 합니다.
높은 위험: AI 기반 의료 소프트웨어나 채용 시스템 등은 높은 위험으로 분류됩니다. 이러한 시스템은 위험 완화 시스템, 고품질 데이터 세트, 사용자에게 명확한 정보 제공, 인간의 감독 등이 필수적입니다.
허용할 수 없는 위험: 소위 ‘소셜 스코어링’ 시스템처럼 개인의 기본적 권리를 명백하게 위협하는 AI 시스템은 금지됩니다.
AI법의 발효와 EU의 목표
유럽 연합(EU)은 이번 AI법을 통해 안전하고 신뢰할 수 있는 AI 개발의 선두주자로 자리매김하고자 합니다. 이 법안은 인권과 기본적 가치를 중심으로 한 강력한 규제 프레임워크를 통해 AI 생태계를 보호하고 촉진하는 역할을 하게 됩니다.
AI법의 시행은 특히 의료, 운송, 에너지, 보안 분야에서 큰 변화를 가져올 것으로 기대됩니다. AI 기술이 공공 서비스의 질을 높이고, 기업의 생산성을 향상시키며, 정부가 더욱 효율적인 서비스 제공을 가능하게 할 것입니다.
일반 목적 인공지능(GPAI) 모델에 대한 실무 강령
AI법은 또한 일반 목적 인공지능(GPAI) 모델에 대한 규제도 예고하고 있습니다. 최근 유럽 위원회는 GPAI 모델 제공자를 위한 실무 강령에 대한 협의를 시작했습니다. 이 강령은 투명성, 저작권 보호, 위험 관리 등 AI 기술이 직면한 주요 문제들을 다룰 예정입니다.
GPAI는 “General-Purpose AI”의 약자로, “일반 목적 인공지능”을 의미합니다. 이는 특정 작업에 특화된 인공지능과 달리, 다양한 작업이나 문제를 처리할 수 있는 범용적인 AI 시스템을 지칭합니다. 대표적인 예로는 인간과 유사한 수준의 다양한 인지 능력을 갖춘 AI 시스템이 있으며, 이러한 시스템은 자연어 처리, 문제 해결, 추론, 학습 등의 다양한 기능을 수행할 수 있습니다.
GPAI는 특정한 목적이나 도메인에 국한되지 않고, 다양한 상황에서 유연하게 적용될 수 있는 능력을 가지기 때문에, 인공지능 연구 및 산업에서 중요한 개념으로 자리잡고 있습니다. GPT-3나 GPT-4와 같은 AI 모델들도 어느 정도의 범용성을 갖추고 있는 예로 볼 수 있습니다.
GPAI 모델 제공자, 기업, 시민 사회 대표, 권리자, 학계 전문가들은 이 협의에 참여하여 자신의 의견을 제출할 수 있으며, 이들은 향후 GPAI 모델에 대한 실무 강령 초안에 반영될 것입니다. 이 강령은 2025년 4월까지 완성될 예정이며, 이후 GPAI 관련 규제의 준수 및 집행을 감독할 AI 사무소의 업무에도 중요한 영향을 미칠 것입니다.
유럽 인공지능법은 앞으로도 많은 논의와 수정이 예상됩니다. 그러나 현재로서는 AI 기술이 책임감 있게 개발되고 배포될 수 있도록 하는 중요한 첫걸음으로 평가받고 있습니다. AI가 우리의 생활에 깊숙이 들어온 만큼, 이에 대한 적절한 규제와 관리가 필수적입니다. 유럽이 이러한 AI 규제의 선두에 서게 됨으로써, 전 세계적인 AI 규제 논의에도 큰 영향을 미칠 것으로 보입니다.
AI법의 단점 및 문제점
기술 혁신 저해 가능성: 일부 비평가들은 AI법이 지나치게 엄격하여 혁신을 저해할 수 있다고 우려합니다. 특히 고위험 AI 시스템에 대한 규제가 너무 까다로워지면, 기업들이 새로운 AI 솔루션을 개발하거나 도입하는 데 주저할 수 있습니다.
비용 증가: AI 시스템의 개발과 배포에 필요한 추가적인 검증, 데이터 관리, 사용자 정보 제공 등으로 인해 기업들은 추가적인 비용을 부담해야 할 수 있습니다. 특히 중소기업에게는 이러한 비용이 상당한 부담으로 작용할 수 있습니다.
국가 간 경쟁력 차이: EU 내부에서 통일된 규제를 제공하지만, EU 외부의 국가들과 경쟁하는 기업들에게는 불리하게 작용할 수 있습니다. 다른 지역에서는 AI 규제가 덜 엄격할 경우, EU 기업들은 상대적으로 경쟁력이 약화될 수 있습니다.
실제 적용의 어려움: AI법의 복잡한 규제 요구 사항은 실제로 기업들이 이를 어떻게 적용해야 할지 혼란스러울 수 있습니다. 특히, 다양한 AI 시스템이 고위험으로 분류되는지에 대한 명확한 기준이 없을 경우, 법을 준수하는 데 어려움을 겪을 수 있습니다.
향후 전망
AI법은 초기 시행 단계에서 여러 가지 도전과제에 직면할 가능성이 높습니다. 하지만, 이 법안은 AI 기술의 책임 있는 사용을 보장하기 위해 중요한 첫걸음이라는 점에서 긍정적인 평가를 받고 있습니다. 앞으로 AI법은 몇 가지 주요 영역에서 발전 가능성이 있습니다.
글로벌 표준화 가능성: EU는 AI법을 통해 글로벌 AI 규제의 표준을 제시하려고 합니다. 향후, 다른 국가들도 EU의 AI법을 참고하여 자국의 AI 규제를 강화할 가능성이 있습니다.
지속적인 법안 수정: AI 기술이 급속도로 발전함에 따라, AI법도 지속적인 수정이 필요할 것입니다. 특히, 새로운 기술적 도전과 윤리적 문제들이 발생할 때마다, 이를 반영하기 위한 법적 개정이 이루어질 것입니다.
협력 강화: AI법의 성공적인 시행을 위해서는 각국 정부, 기업, 학계 간의 긴밀한 협력이 필수적입니다. EU는 다양한 이해관계자들과의 협력을 통해 AI법을 지속적으로 개선하고 발전시킬 것입니다.
<이하 광고>