Governança além da regulação: como modelos societários podem contribuir para uma inteligência artificial responsável?

*A imagem utilizada nesse artigo foi criada por uma inteligência artificial generativa.

***Co-autoria com Claudia Pitta. Originalmente publicado em Jornal Jurid.

A explosão dos sistemas de Inteligência Artificial Generativa neste ano trouxe não só a popularização dessa tecnologia, que já vinha apresentando crescimento acelerado, como também uma maior consciência e preocupação com seus riscos e possíveis impactos sociais, além de ter transformado o cenário de competição neste mercado.

Segundo site de inteligência de dados Statista, o mercado de software de IA deve alcançar 126 bilhões de dólares até 2025, com crescimento anual de 35%. E se, inicialmente, os modelos tradicionais de aprendizado de máquina - de menor escala e especializados - apontavam para um cenário de ampla e pulverizada competição, hoje, com os chamados modelos fundacionais (como, por exemplo, os large language models ou LLM), a tendência parece ser uma espécie de plataformização, semelhante à que ocorreu na internet. Isso porque tais modelos de grande escala exigem enorme capacidade de processamento computacional, imenso volume de dados de qualidade e variedade, e desenvolvedores especialistas e de elevado conhecimento, todos ativos de alto custo. Aplicações de Inteligência Artificial deverão ser desenvolvidas a partir de ou aperfeiçoadas pelos modelos fundacionais e afinadas para domínios de dados específicos, com a criação, assim, de ecossistemas com desenvolvedores (complementadores) que orbitam em torno de grandes fornecedores de modelos fundacionais (orquestradores).

Como a inteligência artificial deverá ser incorporada a diferentes produtos em diversos mercados, além de potencialmente ser empregada em análise de dados para definição de estratégias competitivas e de marketing, uma concentração de poder econômico em IA poderia ter reflexos futuros nos mais diversos mercados, talvez em todos.

Nesse cenário, além do desafio de garantir sistemas confiáveis, responsáveis e justos, a IA coloca um desafio de outra ordem para a governança corporativa das empresas que desenvolvem e operam essas tecnologias: a potencial concentração de mercado. Quanto maior o poder detido por empresas dominantes, quanto maior a abrangência de aplicações derivadas de modelos fundacionais e maiores os riscos, maiores as exigências de integridade, transparência, responsabilidade, equidade e sustentabilidade que sobre elas recaem.

Engana-se quem pensa que o desenvolvimento e a utilização responsáveis da IA dependem de regulação estatal restritiva. Considerando o temor e desconfiança natural dos usuários e afetados quanto a uma tecnologia que mimetiza capacidades humanas, a confiabilidade e responsabilidade de sistemas de IA deverão ser elementos chave para compor a atratividade de produtos, até mesmo, para alguns casos, mais importante que seu próprio desempenho. Por outro lado, as próprias corporações também têm o dever ético de desenvolver mecanismos de autorregulação e governança que direcionem o desenvolvimento de IA para o bem comum, pois tratamos de uma tecnologia capaz de transformar profundamente as relações econômicas, sociais e a própria cultura humana. A empresa, como consagrado no Manifesto do Fórum Econômico Mundial de 2020, “é mais do que uma unidade econômica geradora de riqueza”; “ela satisfaz aspirações humanas e sociais como parte de um sistema social mais amplo”.

Não surpreende, portanto, que duas das principais concorrentes da OpenAI, Anthropic e Inflection AI, estejam constituídas como Public Benefit Corporations, um modelo societário especial previsto na legislação de alguns estados norte-americanos e de outros países. Na legislação de Delaware, uma Public Benefit Corporation é “uma empresa com fins lucrativos que se destina a produzir benefício(s) público(s) e a operar de maneira responsável e sustentável", ou seja, ela assume a obrigação estatutária (portanto, exigível por qualquer stakeholder) de gerar benefício(s) público(s) em paralelo ao retorno para os acionistas.

Dados os potenciais benefícios da tecnologia para os diversos campos de desenvolvimento humano, os riscos a direitos fundamentais e uma potencial concentração de mercado, ao menos para os modelos fundacionais, faz todo o sentido que tais empresas orquestradoras assumam a liderança, ao menos dentro do ecossistema de aplicações derivadas de seus modelos, para o desenvolvimento a operação responsável e sustentável da inteligência artificial, em prol do benefício público e da humanidade. Embora a experiência mostre não ser suficiente esse compromisso, é certamente um bom começo. A legislação de Benefit Corporations exige um grau maior de transparência e prestação de contas, permitindo o escrutínio por toda a sociedade.

Reconhecendo essa responsabilidade de líderes, em julho deste ano, algumas dessas empresas assumiram perante o governo dos EUA o compromisso público de desenvolver sistemas seguros e confiáveis, adotando uma série de medidas nessa direção. Também é digno de nota a iniciativa de open innovation, por alguns grandes fornecedores, com a abertura de modelos fundacionais para desenvolvedores independentes, o que pode aumentar a confiabilidade dos sistemas e mesmo trazer maior competição.

Outras iniciativas já vêm sendo testadas para buscar o alinhamento das grandes empresas de IA aos anseios da sociedade, como estruturas especiais de capital, limitação de distribuição de dividendos, compromissos estatutários, prestação de contas, órgãos de monitoramento e diversos outros mecanismos de governança e autorregulação.

A IA impõe novos desafios de Ética e governança. Cabe à sociedade civil, à academia e à iniciativa privada debater o assunto, criar alternativas e pressionar para que as empresas assumam e cumpram compromissos éticos de desenvolvimento responsável da IA. Em paralelo, é preciso cobrar dos governos uma regulação equilibrada, que reflita o interesse dos diferentes stakeholders e não crie embaraços ao desenvolvimento da tecnologia. Somos todos partícipes deste futuro em construção.

Ao usar nosso site, você concorda com nossa Política de Privacidade e uso de cookies.