Avanços internacionais na governança de inteligência artificial: análise do escopo dos Princípios Orientadores e Código de Conduta do G7 e da Ordem Executiva do Presidente Biden

*Recurso de imagem obtido a partir do site Freepik.com

Em 30/10/2023, foram publicados três importantes documentos sobre governança da inteligência artificial (IA): no âmbito do G7, os Princípios Orientadores e o Código de Conduta para organizações que desenvolvem sistemas avançados de IA; e, nos Estados Unidos, a Ordem Executiva do Presidente Biden sobre o desenvolvimento e uso seguro e confiável de IA. Desde então, tem-se falado no início efetivo da regulação da IA, após anos de discussões legislativas em diversos países, sobretudo no âmbito da União Europeia, com o AI Act proposto em 2021, e no Brasil com o primeiro Projeto de Lei sobre o tema proposto em 2020 (PL 21/2020), hoje substituído pelo PL 2338/2023, que tramita no Senado.

Os Princípios Orientadores e o Código de Conduta do G7 se inserem no contexto do Processo de Hiroshima, em que os líderes do G7 (grupo composto por Alemanha, Canadá, Estados Unidos, França, Itália, Japão, Reino Unido e União Europeia) discutiram iniciativas para promover a segurança e confiabilidade dos sistemas de IA mundialmente. Ambos os documentos fornecem orientação voluntária às organizações (desde empresas até organizações da sociedade civil e entidades governamentais) que “desenvolvam e utilizem os sistemas de IA mais avançados, incluindo os modelos fundacionais mais avançados e sistemas de IA generativa”. Além de serem, por natureza, instrumentos de soft law, os Princípios e o Código de Conduta mencionam expressamente que não substituem a regulação estatal sobre a IA, ao afirmarem que diferentes jurisdições podem adotar abordagens próprias para implementar as orientações de diferentes maneiras e que os governos podem desenvolver medidas regulatórias e de governança mais sólidas paralelamente.[1]

Nesse sentido, a Comissão Europeia saudou a aprovação dos Princípios e do Código de Conduta, afirmando que essas orientações voluntárias “complementarão, a nível internacional, as regras juridicamente vinculantes que os legisladores da UE estão atualmente finalizando sob o AI Act”.[2] A harmonização com o AI Act parece, inclusive, ter sido considerada na elaboração dos documentos do G7, que orientam as organizações a segui-los em conformidade com uma abordagem baseada em riscos – que é a abordagem adotada pelo AI Act, assim como pelo PL 2338/2023 no Brasil, que estabelecem diferentes obrigações de acordo com o risco que o sistema de IA possa apresentar.

Os Princípios Orientadores são replicados e detalhados no Código de Conduta, de forma que ambos contêm notas introdutórias estabelecendo, entre outros pontos, a necessidade de que agentes privados se abstenham de desenvolver e utilizar IAs de risco “inaceitável” (aplicações que comprometam os valores democráticos, sejam particularmente prejudiciais para indivíduos ou comunidades, facilitem o terrorismo ou utilização criminosa, ou representem riscos substanciais para a segurança e os direitos humanos) e observem instrumentos internacionais de proteção aos direitos humanos, como os Princípios Orientadores sobre Empresas e Direitos Humanos da ONU. Os líderes do G7 também se comprometem a desenvolver mecanismos de monitoramento e responsabilização das empresas. Em seguida, são apresentados os princípios, que contêm as 11 recomendações seguintes:

  1. Tomar medidas adequadas ao longo do desenvolvimento de sistemas avançados de IA, inclusive antes e durante a sua implantação e colocação no mercado, para identificar, avaliar e mitigar riscos em todo o ciclo de vida da IA;
  2. Identificar e mitigar vulnerabilidades e, quando apropriado, incidentes e padrões de utilização indevida, após a implantação, incluindo a colocação no mercado;
  3. Reportar publicamente as capacidades, limitações e áreas de utilização adequada e inadequada dos sistemas avançados de IA, para apoiar a garantia de transparência suficiente, contribuindo assim para aumentar a responsabilização;
  4. Buscar o compartilhamento responsável de informações e relatórios de incidentes entre organizações que desenvolvem sistemas avançados de IA, inclusive com a indústria, governos, sociedade civil e academia;
  5. Desenvolver, implementar e divulgar políticas de governança e gestão de riscos de IA, fundadas em uma abordagem baseada em riscos – incluindo políticas de privacidade e medidas de mitigação;
  6. Investir e implementar controles de segurança robustos, incluindo segurança física, segurança cibernética e proteções contra ameaças internas em todo o ciclo de vida da IA;
  7. Desenvolver e implementar mecanismos confiáveis de autenticação e proveniência de conteúdo, sempre que tecnicamente viável, como marcas d'água ou outras técnicas para permitir que os usuários identifiquem conteúdo gerado por IA;
  8. Priorizar a pesquisa para mitigar os riscos sociais e de segurança e priorizar o investimento em medidas de mitigação eficazes;
  9. Priorizar o desenvolvimento de sistemas avançados de IA para enfrentar os maiores desafios do mundo, nomeadamente, mas não limitados, à crise climática, à saúde global e à educação;
  10. Promover o desenvolvimento e, quando apropriado, a adoção de normas técnicas internacionais; e
  11. Implementar medidas adequadas na introdução de dados (data input), como qualidade dos dados, e proteções para dados pessoais e propriedade intelectual.

Antes da aprovação dos textos do Processo de Hiroshima, a Comissão Europeia abriu uma consulta pública sobre os Princípios Orientadores. Uma das questões formuladas na consulta dizia respeito aos mecanismos de monitoramento a serem implementados: se há necessidade de monitoramento e, caso positivo, se deveria ser realizado por uma organização internacional confiável, por organizações nacionais ou por autoavaliação. O Maranhão & Menezes apresentou contribuição defendendo que a natureza dinâmica das soluções de IA sugere uma preferência por parte das organizações em adotar um modelo de autorregulação regulada, garantindo que as avaliações sejam realizadas em sintonia com as rápidas mudanças tecnológicas e aplicações específicas em diversos setores, ao passo que as organizações nacionais ditariam diretrizes gerais. No contexto de adoção de um modelo de autoavaliação, as organizações nacionais ainda poderiam estabelecer procedimentos e critérios mínimos de avaliação, endossando os resultados para garantir uma referência mínima comum, e cumprir o papel de realizar auditorias em situações de alto risco.

A consulta pública também abriu espaço para sugestões de novos princípios ou alterações aos princípios propostos pelo G7. Dentre as considerações elaboradas pelo Maranhão & Menezes nesse ponto, destacamos a importância de um novo princípio para garantir que os sistemas de IA melhorem a competitividade nos mercados. Conforme abordado em artigo publicado recentemente pelos sócios Juliano Maranhão e Josie Menezes acerca da interface entre IA e direito concorrencial,[3] as transformações provocadas pelos modelos de IA podem alterar significativamente a dinâmica competitiva e o relacionamento entre os agentes de mercado. Por um lado, sabe-se que os avanços tecnológicos relacionados com a IA garantem a inovação e o surgimento de soluções disruptivas. No entanto, também emergem riscos competitivos consideráveis a partir da transformação da estrutura de oferta e concorrência nos mercados relacionados com a IA. Por exemplo, os pioneiros nestas soluções podem desfrutar de posições consolidadas que asseguram a manutenção da sua posição no mercado em detrimento de outros concorrentes e de outras possíveis novas soluções tecnológicas. Também há riscos associados ao conluio tácito resultante do desenvolvimento de soluções preditivas de IA, com ou sem acesso a informações concorrencialmente sensíveis. Daí a necessidade de estabelecer um princípio que favoreça a concorrência no desenvolvimento e aplicação de sistemas de IA.

Embora não incluído nos textos do G7, esse ponto foi abordado na Ordem Executiva sobre o Desenvolvimento e Uso Seguro e Confiável de IA emitida pelo Presidente Biden.[4] A Seção 5 da Ordem Executiva trata da promoção da inovação e da competição, e o item 5.3(a) estabelece que as agências que venham a regulamentar aspectos relacionados à IA devem promover a concorrência no mercado de IA e tecnologias relacionadas. A Ordem Executiva determina que, para tanto, deve-se combater os riscos decorrentes do controle de fatores de produção essenciais, adotar medidas para pôr fim ao conluio ilegal e impedir que as empresas dominantes coloquem os concorrentes em desvantagem, e trabalhar para proporcionar novas oportunidades às pequenas empresas. Também são mencionados os poderes atribuídos pelas leis estadunidenses à Federal Trade Commission (FTC, autoridade antitruste do país) para que ela atue garantindo uma concorrência leal no mercado da IA.[5]

Além da Seção sobre Promoção da Concorrência e Inovação, a Ordem Executiva aborda sete outros temas: padrões de segurança para IA (Seção 4); proteção dos trabalhadores (Seção 6); promoção da equidade e dos direitos civis (Seção 7); proteção dos consumidores, pacientes, passageiros e estudantes (Seção 8); proteção da privacidade (Seção 9); uso da IA pelo governo federal (Seção 10); e fortalecimento da liderança dos Estados Unidos (Seção 11). O conteúdo da Ordem Executiva é complementar ao dos Princípios do G7[6] e ambos possuem pontos em comum, como o incentivo a pesquisas em IA em áreas vitais como saúde e mudanças climáticas[7], ao desenvolvimento de padrões e normas técnicas em parceria com aliados internacionais e organizações de padronização, a fim de garantir que a tecnologia seja segura, confiável e interoperável[8] e à adoção de padrões e técnicas para autenticação de conteúdo e rastreamento de procedência, rotulagem e detecção de conteúdo sintético.[9]

A maior parte dos comandos da Ordem Executiva se destina a diversas agências governamentais, requisitando a formulação de documentos orientativos ou determinando a criação de novas políticas públicas, como programas de incentivo à pesquisa e inovação em IA. Dentre os documentos a serem desenvolvidos pelas agências, pode-se citar os guias, padrões e melhores práticas sobre segurança em IA pelo National Institute of Standards and Technology (NIST), os princípios e melhores práticas a serem desenvolvidos pelo Secretary of Labor para evitar que os empregadores subcompensem os trabalhadores, avaliem injustamente as candidaturas a empregos ou interfiram na capacidade de organização dos trabalhadores,[10] ou ainda as melhores práticas a serem recomendadas em relatório do Attorney General sobre o uso de IA no sistema de justiça criminal.[11]

Contudo, há um ponto importante da Ordem Executiva que vem sendo caracterizado na mídia como a imposição de uma obrigação de que empresas desenvolvedoras de IA “abram seus dados” ao governo estadunidense. Na realidade, entretanto, a regra possui escopo limitado: empresas que desenvolvam modelos fundacionais que representem um sério risco à segurança nacional, à segurança econômica nacional ou à saúde e segurança públicas nacionais. Nesses casos, as empresas desenvolvedoras dos sistemas deverão notificar o governo ao treinar o modelo de IA, além de compartilhar os resultados de todos os testes de segurança dos red teams (equipes dedicadas a testar a segurança dos sistemas) e outras informações críticas com o governo. [12] Essa exigência é realizada com base no Defense Production Act, lei criada em 1950 para organizar e facilitar a produção de bens e serviços necessários à segurança nacional, e que continua em vigor com modificações.

Observa-se, portanto, que a Ordem Executiva ainda não é uma regulação geral de IA como tem sido retratada – inclusive porque tal norma geral só poderia ser editada com aprovação do Congresso dos EUA. A Ordem Executiva direciona ações do governo para lidar com os desafios impostos pela IA e para fortalecer a posição estadunidense na corrida internacional pela IA. Pontualmente, há também exigência de informações de agentes privados, mas com base em prerrogativas garantidas em lei em matéria de defesa nacional.

Tal ponderação cabe também com relação aos documentos publicados pelo G7, ressaltando-se que não substituem eventuais regulações estatais acerca da IA. Não se nega a importância dessas e de outras iniciativas internacionais para a governança da IA, como o AI Safety Summit sediado no Reino Unido, que reuniu governos, especialistas e companhias de diversos países no início deste mês (novembro de 2023) e resultou na assinatura de uma declaração conjunta sobre testes de segurança de IA e da Declaração de Bletchley sobre segurança em IA, a qual reconhece a urgência de compreender e gerir coletivamente riscos potenciais através de um novo esforço global para garantir que a IA seja desenvolvida e implantada de forma segura, responsável e benéfica. Essas iniciativas têm o importante papel de estabelecer princípios com ampla aceitação internacional e, no caso da Ordem Executiva estadunidense desenvolver orientações, padrões e políticas públicas. No entanto, cumpre notar que elas exercem papéis diferentes de regulações vinculantes à indústria de IA que podem ser eventualmente adotadas pelos Estados.

 

[1]Different jurisdictions may take their own unique approaches to implementing these actions in different ways. We call on organizations in consultation with other relevant stakeholders to follow these actions, in line with a risk-based approach, while governments develop more enduring and/or detailed governance and regulatory approaches.” Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems, p. 1.

Different jurisdictions may take their own unique approaches to implementing these guiding principles in different ways. We call on organizations in consultation with other relevant stakeholders to follow these actions, in line with a risk-based approach, while governments develop more enduring and/or detailed governance and regulatory approaches”. Hiroshima Process International Guiding Principles for Organizations Developing Advanced AI systems, p. 1.

Disponíveis em: https://www.mofa.go.jp/ecm/ec/page5e_000076.html. Acesso em 09/11/2023.

[2] European Commission. Commission welcomes G7 leaders' agreement on Guiding Principles and a Code of Conduct on Artificial Intelligence. 30/10/2023. Disponível em: https://digital-strategy.ec.europa.eu/en/news/commission-welcomes-g7-leaders-agreement-guiding-principles-and-code-conduct-artificial. Acesso em 09/11/2023.

[3] ALMADA, Marcos; MARANHÃO, Juliano; MENEZES, Josie. Inteligência artificial e concorrência: navegando em mar aberto. Consultor Jurídico, 19 de outubro de 2023. Disponível em: https://www.conjur.com.br/2023-out-19/opiniao-ia-concorrencia-navegando-mar-aberto. Acesso em 09/11/2023.

[4] Disponível em: https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence/. Acesso em 06/11/2023.

[5]5.3.  Promoting Competition.  (a)  The head of each agency developing policies and regulations related to AI shall use their authorities, as appropriate and consistent with applicable law, to promote competition in AI and related technologies, as well as in other markets.  Such actions include addressing risks arising from concentrated control of key inputs, taking steps to stop unlawful collusion and prevent dominant firms from disadvantaging competitors, and working to provide new opportunities for small businesses and entrepreneurs.  In particular, the Federal Trade Commission is encouraged to consider, as it deems appropriate, whether to exercise the Commission’s existing authorities, including its rulemaking authority under the Federal Trade Commission Act, 15 U.S.C. 41 et seq., to ensure fair competition in the AI marketplace and to ensure that consumers and workers are protected from harms that may be enabled by the use of AI. […]”  White House. Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence. 30 de outubro de 2023.

[6] Cf. White House, Fact Sheet: President Biden Issues Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence. 30 de outubro de 2023. “The actions taken today support and complement Japan’s leadership of the G-7 Hiroshima Process, the UK Summit on AI Safety, India’s leadership as Chair of the Global Partnership on AI, and ongoing discussions at the United Nations.” Disponível em: https://www.whitehouse.gov/briefing-room/statements-releases/2023/10/30/fact-sheet-president-biden-issues-executive-order-on-safe-secure-and-trustworthy-artificial-intelligence/. Acesso em 06/11/2023.

[7]  White House. Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence. Sec. 5.2. (Promoting Innovation); Hiroshima Process Principle 9.

[8] White House. Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence. Sec. 11(b) (Strengthening American Leadership Abroad); Hiroshima Process Principle 10.

[9] White House. Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence. Sec. 4.5 (Reducing the Risks Posed by Synthetic Content); Hiroshima Process Principle 7.

[10] White House. Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence. Sec. 6(b)(i).

[11] White House. Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence. Subsection 7.1(b)(ii)(B).

[12]In accordance with the Defense Production Act, the Order will require that companies developing any foundation model that poses a serious risk to national security, national economic security, or national public health and safety must notify the federal government when training the model, and must share the results of all red-team safety tests. These measures will ensure AI systems are safe, secure, and trustworthy before companies make them public.” White House, Fact Sheet: President Biden Issues Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence. 30 de outubro de 2023. Disponível em: https://www.whitehouse.gov/briefing-room/statements-releases/2023/10/30/fact-sheet-president-biden-issues-executive-order-on-safe-secure-and-trustworthy-artificial-intelligence/. Acesso em 06/11/2023.

Ao usar nosso site, você concorda com nossa Política de Privacidade e uso de cookies.