AI 보안 (3) : 중국 사회주의 체제 유지 위한 AI 생성물 규제 강화

중국이 온라인에 게시된 모든 인공지능(AI) 생성 콘텐츠에 대해 명시적인 라벨링을 의무화하는 방안을 추진하고 있습니다. 이 규정은 이미지, 영상뿐만 아니라 텍스트까지도 포함되며, 서비스 제공자와 이용자 모두 이를 준수하지 않을 경우 처벌될 수 있습니다. 이 새로운 규제는 중국 사이버공간 관리국(CAC)이 2024년 9월 14일 발표한 ‘인공지능에 의해 생성된 합성 콘텐츠 표시 방법(의견용 초안)’에 근거한 것입니다. 해당 초안은 한 달간 공개적으로 의견을 수렴한 후 최종 규제로 확정될 예정입니다.

이와 같은 규제는 중국이 AI 기술을 관리하는 일련의 정책 가운데 일부입니다. 중국은 이미 2023년 1월에 딥페이크 기술을 규제하는 규칙을 발표했으며, 이어 8월에는 생성 AI 서비스 제공자가 당국에 등록하고 제품 출시 전 보안 평가를 수행해야 한다는 규정을 도입한 바 있습니다. 이번에 제시된 초안은 지금까지의 규제 중 가장 포괄적이며, 특히 온라인 플랫폼에도 대규모 책임을 부과하는 것이 특징입니다.

생성 AI 콘텐츠 표시 의무화의 배경과 내용

중국의 이 규제안은 생성 AI로 인해 만들어진 합성 콘텐츠가 사회에 미치는 영향을 통제하고자 하는 목적을 가지고 있습니다. 생성 AI는 이미지를 변조하거나, 사람의 목소리를 모방하는 등 다양한 방식으로 콘텐츠를 생성할 수 있으며, 이는 허위 정보나 잘못된 정보 확산의 위험성을 증가시킵니다. 이러한 배경 속에서 중국은 합성 콘텐츠가 포함된 파일에 대해 명확한 표시를 요구하고 있습니다.

  • AI 생성 콘텐츠 명시 의무화: 생성 AI가 생성한 텍스트, 사운드, 그래픽 등 모든 콘텐츠에는 명확하게 ‘AI 생성’이라고 표시해야 합니다.
  • 메타데이터 표기 요구: 생성된 파일의 메타데이터에는 콘텐츠가 합성되었음을 나타내는 정보와 함께, 작성자 이름 또는 코드, 콘텐츠 번호 및 제작 요소 정보가 포함되어야 합니다.
  • 플랫폼의 의심 콘텐츠 경고 의무: 서비스 제공자는 AI 생성 콘텐츠로 의심되는 파일을 탐지하거나, 명시적 표기가 없는 콘텐츠라도 합성 흔적이 있는 경우 경고 표시를 추가해야 합니다.
  • 이용자의 책임: 이용자 또한 AI 생성 콘텐츠를 업로드할 때 플랫폼이 제공하는 식별 기능을 사용하여 해당 콘텐츠에 대한 라벨링을 해야 합니다.

규정 위반 시 처벌과 중국의 강화된 규제 흐름

CAC는 이번 규정에 대해 매우 엄격한 입장을 고수하고 있습니다. 합성 콘텐츠 식별자를 악의적으로 삭제하거나 변조하는 행위는 법적으로 처벌되며, 라벨링을 하지 않아 심각한 결과를 초래한 경우에는 관련 법규에 따라 제재를 받게 됩니다.

중국의 생성 AI 콘텐츠 표시 의무화 규제는 정보의 투명성을 높이고, 허위 정보 확산을 방지하기 위한 강력한 정책으로 평가받고 있습니다. 하지만 이러한 정책에는 장점뿐만 아니라 단점과 문제점도 존재합니다.

1. 장점

  1. 허위 정보 방지: 생성 AI를 이용한 가짜 뉴스, 이미지 조작 등 허위 정보가 사회적으로 큰 영향을 미칠 수 있습니다. 이 규제는 합성 콘텐츠에 대한 명확한 라벨링을 요구함으로써 사용자들이 콘텐츠의 진위 여부를 쉽게 파악할 수 있게 돕습니다.
  2. 온라인 신뢰성 강화: AI 생성 콘텐츠는 점점 더 정교해지고 있으며, 이를 통해 신뢰할 수 있는 정보와 그렇지 않은 정보를 구분하는 것이 어려워지고 있습니다. 명시적 라벨링은 플랫폼 사용자들의 신뢰를 유지하고, 정보의 신뢰도를 높이는 데 기여합니다.
  3. 법적 책임 명확화: 생성 AI 콘텐츠와 관련된 문제 발생 시 책임 소재를 명확히 할 수 있습니다. 특히 플랫폼이 의심스러운 콘텐츠에 대해 경고 표시를 하게 함으로써, 콘텐츠 관리 책임이 플랫폼과 서비스 제공자에게도 부여됩니다.

2. 단점

  1. 기술 혁신 저해: 규제가 너무 엄격하면 AI 기술의 발전과 혁신이 저해될 수 있습니다. 특히, AI 콘텐츠 생성 기술은 광고, 마케팅, 교육 등 다양한 분야에서 유용하게 사용될 수 있는 기술이지만, 지나치게 엄격한 규제는 산업의 발전을 방해할 수 있습니다.
  2. 과도한 규제 부담: AI 생성 콘텐츠를 탐지하고 경고 표시를 해야 하는 의무가 플랫폼에 부과되면서, 모든 파일을 점검해야 하는 부담이 생깁니다. 이로 인해 소규모 인터넷 플랫폼이나 스타트업 기업들이 고비용의 검열 시스템을 구축해야 할 수도 있습니다.
  3. 프라이버시 침해 가능성: 메타데이터에 생성자의 정보, 콘텐츠 번호 등 다양한 요소를 표시하게 되면서 개인 정보가 지나치게 노출될 가능성도 있습니다. 이로 인해 프라이버시 문제도 함께 제기될 수 있습니다.

3. 문제점

  1. 기술적 구현의 어려움: AI 콘텐츠를 정확히 식별하고 라벨링하는 것은 기술적으로 쉽지 않은 과제입니다. AI로 생성된 콘텐츠는 점점 더 사람의 창작물과 구분하기 어려워지기 때문에, 플랫폼에서 이를 탐지하는 데 한계가 있을 수 있습니다.
  2. 검열 강화 우려: 중국 정부가 AI 생성 콘텐츠에 대한 통제력을 강화하면서, 정보 자유와 표현의 자유를 억제하는 검열 수단으로 사용될 가능성도 제기됩니다. 이는 AI 콘텐츠 자체의 문제보다 표현의 자유 억압 문제로 확대될 우려가 있습니다.

  3. 중국의 이번 생성 AI 콘텐츠 표시 의무화는 글로벌 AI 규제의 중요한 지표가 될 것으로 예상됩니다. 다른 국가나 국제 기구들도 중국의 규제 방안을 참고할 가능성이 크며, 향후 AI 규제가 세계적으로 강화될 수 있습니다.

특히 미국, 유럽 연합, 일본 등 AI 기술이 급격히 발전하는 국가들은 허위 정보와 사이버 보안 문제를 해결하기 위한 규제를 강화하는 추세입니다. 이미 유럽 연합은 AI 법안을 통해 인공지능 시스템의 윤리적 사용과 규제에 대한 논의를 활발히 진행 중이며, 미국도 AI 기술에 대한 규제 검토를 하고 있습니다.

4. 규제 강화 :  AI 기술 개발과 산업 발전에 적극적으로 투자하고 있는 국가입니다. 이번 규제는 AI 산업 내에서 기술 윤리를 강화하려는 노력의 일환으로 볼 수 있지만, 동시에 AI 기술 발전 속도를 제한할 수 있는 요소로 작용할 수도 있습니다. 특히 중소기업이나 스타트업 기업들이 이러한 규제에 적응하기 위해 많은 비용을 들여야 할 가능성이 큽니다. 하지만 중국 정부는 규제를 통해 더 신뢰할 수 있는 AI 환경을 구축하고, 장기적으로는 AI 기술의 질적 발전을 목표로 하고 있습니다.

 

<이하 광고>

© 2023 나의 웹 페이지