IA Generativa e Avanços na Abordagem Regulatória Chinesa

O Partido Comunista da China exerce um rigoroso controle sobre a internet no país, criando um ambiente digital que atende aos seus interesses e uma indústria interna robusta. Com o avanço de novas tecnologias de inteligência artificial generativa (IAG) com potencial disruptivo, surgem novas respostas regulatórias para a manutenção do controle estatal nos ambientes digitais.

A Cyberspace Administration of China (CAC), órgão regulador da internet, publicou as Measures for the Management of Generative Artificial Intelligence Services[1](Measures for IAG), no último dia 11 de abril. A publicação ocorreu apenas alguns meses após a entrada em vigor das Provisions on the Administration of Deep Synthesis Internet Information Services[2] (Provisions on Deep Synthesis), em parte como resposta ao avanço e a rápida adoção por consumidores das IAGs como ChatGPT da OpenAI e das subsequentes iniciativas de empresas chinesas, como o Ernie (Baidu), o Tongyi Qianwen (Alibaba) e o SenseChat (Sensetime) para acompanhar os seus competidores do ocidente.

A CAC ocupa uma posição central no quadro jurídico-regulatório, que tem sido atualizado com frequência, dada a dinâmica dos desenvolvimentos tecnológicos da IAGs. O órgão tem autoridade sobre conteúdo digital desde 2014 e é responsável pela segurança do ciberespaço, pela regulamentação de conteúdos na internet e supervisão das empresas que atuam no setor, tendo como atribuições dirigir, coordenar e supervisionar a gestão de conteúdo online, exercer atividades de regulamentação e de concessão de licenças e sanções administrativas[3]. Acompanhar os passos da CAC é tarefa fundamental para a compreensão dos rumos da regulação das IAGs.

Na China, a regulação da inteligência artificial generativa segue uma tendência de abordagem vertical[4]. Diferentes textos normativos focam em aplicações especificas das IAGs, enquanto na Europa o regulamento IA Act é horizontal, abrangendo um amplo espectro de aplicações e diversos aspectos da tecnologia.

As Measures for IAG foram precedidas por outras regras voltadas a aplicações especificas, como as Internet Information Service Algorithmic Recommendation Management Provisions[5] (Provisions on Algorithmic Recommendation) (em vigor desde março de 2022), criadas para padronizar as atividades de recomendação algorítmica, proibindo, por exemplo, a geração algorítmica de notícias falsas e os provedores de serviços algorítmicos de realizar atos monopolísticos ou de adotar práticas anticoncorrenciais.

Antecederam ainda as Measures for IAG, o Provisions on Deep Synthesis (em vigor desde janeiro de 2023) criado para regular as atividades de Deep Synthesis, que possibilitam a criação das Deepfakes (tecnologia que permite a criação de áudios, fotos e vídeos “falsos”, mas realistas) e que estabeleceu as bases para a regulamentação das IAGs no país, com previsões especificas sobre chatbots e foco na produção de mídia audiovisual sintética.

Avançando para a nova legislação, o objetivo central declarado das Measures for IAG é estimular o desenvolvimento saudável e a aplicação padronizada das IAs Generativas na China, proposta que é mais um avanço recente na tentativa de mitigar os riscos opostos pelas tecnologias IAG[6], e que traz medidas que despertam interesse e podem servir como um balizador para novos ímpetos regulatórios.

A nova proposta de legislação, por exemplo, carrega um componente de controle de conteúdo alinhado com as políticas em curso na China, pelo menos desde o lançamento do Golden Shield Project[7] e da criação do Great Firewall[8]. É neste sentido que há previsão para que todo o conteúdo gerado por uma IAG deve incorporar, em geral, os chamados “valores socialistas fundamentais”, e em específico, não deve o conteúdo gerado ser subversivo ao poder do Estado ou ao sistema socialista (art. 4(1)).

Nos Measures for IAG, um modelo em potencial para responsabilização de agentes que fornecem as IAGs, o legislador da China decidiu impor um alto nível de responsabilidade aos prestadores de serviços. Isso é ilustrado, por exemplo, no acesso e na utilização das funcionalidades das IAGs disponibilizadas a terceiros por meio de interfaces de programação de aplicação (conhecidas pela sigla em inglês, APIs). Nesse caso, os fornecedores da tecnologia serão responsáveis por todo conteúdo gerado (conforme o artigo 5), ainda que não controlem os comandos recebidos pela inteligência artificial generativa. Em suma, os provedores de serviços são vistos como criadores do conteúdo, mesmo que de forma indireta, quando a IAG gera outputs para terceiros. Essa escolha regulatória representa divergência marcante em relação ao tratamento que legisladores nos EUA,[9] na Europa, e no Brasil oferecem – ou propõe oferecer – às plataformas.

Uma das disposições que deve despertar interesse e debate para além das fronteiras chinesas, são as obrigações perante o governo como pré-requisito para início da prestação de serviço ao público. Conforme a regra da CAC, os provedores de serviço deverão, antes mesmo de disponibilizar as suas ferramentas de IAGs para o público chinês, submeter à CAC um pedido de avaliação de segurança, além de disponibilizar certas informações sobre o algoritmo para a autoridade. Os requisitos e procedimentos específicos para essa avaliação de segurança não estão detalhados nas próprias Measures for IAG, entretanto, poderiam envolver uma avaliação dos possíveis riscos associados ao uso do produto ou serviço de IA incluindo possíveis vulnerabilidades, impacto na privacidade e conformidade geral com as leis e regulamentações de segurança cibernética, para além do possível impacto no controle social exercido pelo Estado.

Outro tema que merece destaque é a intersecção com a proteção de dados pessoais na China, que tem como base a recente Personal Information Protection Law (PIPL). As Measures for IAG vão além do disposto na PIPL, prevendo que quando dados pessoais forem tratados por IA os agentes de tratamento serão responsáveis como personal information handlers, com certa equivalência para a figura dos controladores conhecida do público brasileiro. Na nova regra chinesa, deve haver consentimento (art.7(3)) para o tratamento de dados ou outros procedimentos de acordo com leis ou regulamentações administrativas existentes (art.5), sendo proibido, por força do artigo 11, que os provedores de serviços realizem o profiling de usuários baseado nas informações compartilhadas com os sistemas de IAG.

As regras chinesas, mais rígidas em relação aos desenvolvedores de inteligência artificial generativa, tem potencial de defasar os atores chineses de seus competidores internacionais. É a partir de grandes quantidades de dados, muitas vezes obtidas por meio de técnicas de web scrapping, que empresas como a OpenAI desenvolvem os seus programas. As disposições das Measures for IAG, no que toca as bases de dados que são substrato para a criação e operação das IAGs, preveem – por exemplo – que será necessário excluir da base de dados todo conteúdo que viole direitos de propriedade intelectual. Além disso, os provedores de serviço deverão garantir a veracidade, objetividade, exatidão e diversidade dos dados o que pode impor a necessidade de criação de ferramentas e filtros adicionais, que podem se tornar custosos.

Ainda que não seja uma análise exaustiva da regulação, as disposições das Measures for IAG sinalizam um esforço do governo chinês para conciliar a inovação tecnológica e os interesses estatais e sociais, apesar do risco de limitar a competitividade internacional da indústria local de inteligência artificial generativa. No contexto regulatório internacional de uma tecnologia em expansão, a existência de iniciativas legislativas que partem de diferentes premissas parece salutar e permite explorar caminhos para a regulamentação de tecnologias cujo potencial disruptivo ainda é incomensurável. Pela escolha de regulação vertical, é razoável esperar que na China a legislação continue avançando com rapidez, conforme o desenvolvimento da própria tecnologia e suas aplicações.

[1] HUANG, Seaton. et al. Translation: Measures for the Management of Generative Artificial Intelligence Services (Draft for Comment) – April 2023: Novel rules about training data and accuracy of generated media circulated for comment. DIGICHINA, Stanford University. Apr. 2023. Disponível em: <https://digichina.stanford.edu/work/translation-measures-for-the-management-of-generative-artificial-intelligence-services-draft-for-comment-april-2023/>. Acesso em 21/05/2023.

[2] CYBERSPACE ADMINISTRATION OF CHINA. Provisions on the Administration of Deep Synthesis Internet Information Services. Dec. 2022. Disponível em: <http://www.cac.gov.cn/2022-12/11/c_1672221949354811.htm>. Acesso em 20/05/2023. Ver tradução em: <https://www.chinalawtranslate.com/en/deep-synthesis/>. Acesso em 20/05/2023.

[3] HORSLEY, Jamie P. Behind the Facade of China’s Cyber Super-Regulator: What we think we know—and what we don’t—about the Cyberspace Administration of China. DIGICHINA, Stanford University. Ago. 2022. Disponível em: <https://digichina.stanford.edu/work/behind-the-facade-of-chinas-cyber-super-regulator/>. Acesso em 19/05/2023

[4] O’SHAUGNESSY, Matt. SHEEHAN, Matt. Lessons from the World’s Two Experiments in AI Governance. Fev. 2023. Disponível em: <https://carnegieendowment.org/2023/02/14/lessons-from-world-s-two-experiments-in-ai-governance-pub-89035>. Acesso em 21/05/2023.

[5] CREEMERS, Rogier. Et al. Translation: Internet Information Service Algorithmic Recommendation Management Provisions– Effective March 1, 2022. Jan. 2022. Disponível em: <https://digichina.stanford.edu/work/translation-internet-information-service-algorithmic-recommendation-management-provisions-effective-march-1-2022/>. Acesso em 18/05/2023.

[6] TRIOLO, Paul. ChatGPT and China: How to think about Large Language Models and the generative AI race. The China Project, abr. 2023. Disponível em: < https://thechinaproject.com/2023/04/12/chatgpt-and-china-how-to-think-about-large-language-models-and-the-generative-ai-race/>. Acesso em 08/05/2023.

[7] ARRIENS. Jaap. In China, the ‘Great Firewall’ Is Changing a Generation. Politico, Jan. 2020. Disponível em: <https://www.politico.com/news/magazine/2020/09/01/china-great-firewall-generation-405385>. Acesso em 15/05/2023.

[8] Cf. https://institute.aljazeera.net/en/ajr/article/2070

[9] A responsabilidade pelo output de plataformas de IAG e demais consequências têm sido objeto de debate em julgamentos recentes nos EUA. LIPTAK, Adam. Supreme Court Won’t Hold Tech Companies Liable for User Posts. The New York Times, mai. 2023. Disponível em: <https://www.nytimes.com/2023/05/18/us/politics/supreme-court-google-twitter-230.html>. Acesso em 21/05/2023.

 

*Co-autoria com José Humberto Fazano Filho e Maria Gabriela Grings. Originalmente publicado em JOTA.

Ao usar nosso site, você concorda com nossa Política de Privacidade e uso de cookies.