IA e desenvolvimento nacional: o lugar do Sul Global

Mercado global de IA vive enormes disparidades e manobras contratuais para enfraquecer a concorrência. Países como a Itália ensaiam alternativas ao domínio das big techs. Brasil tem posição privilegiada para criar musculatura nesta disputa

.

Por James Görgen, na JOTA

Com a necessidade de buscar acesso global a novos mercados para obter ganhos de escala e recuperar o capital investido em inovação na última década, as empresas-plataforma e os líderes no desenvolvimento de sistemas de inteligência artificial (IA), que muitas vezes se confundem, estão com pressa.

Os conglomerados precisam estimular o hype em torno da novidade e manter fronteiras abertas com pouca regulação em todos os países que puderem para consolidar seus movimentos de concentração. De outro lado, países que dificilmente conseguirão algum protagonismo nesta nova fase do capitalismo digital estão tentando adotar estratégias variadas que visam a proteção de direitos, mas não de mercados e dados, com pouca busca por soberania e desenvolvimento nacional. No fundo, só há duas escolhas: ou aceitam ser engolidos ou assumem uma posição protecionista buscando encontrar campeões nacionais e ganhar musculatura para competir em algum nicho.

Com exceção de Estados Unidos e poucos aliados, os demais Estados nacionais do Norte Global estão um tanto quanto perdidos. Enquanto alguns apostam em regulamentações de naturezas distintas baseadas apenas na proteção de direitos e mitigação de riscos, complementando-as com esparsas ações de fomento à adoção e uso da tecnologia por parte de empresas e Poder Público, com investimentos na formação e capacitação de recursos humanos e instalação de infraestrutura, outros formulam estratégias nacionais pouco conectadas a esforços de desenvolvimento econômico, científico e tecnológico por meio de políticas industriais.

Excluindo-se a China, os países do Sul Global estão em condição ainda mais desvantajosa. Sem poder de barganha e aceitando argumentos da parte diretamente interessada em acessar seus mercados. Em uma guerra desequilibrada, o único protagonismo que estão alcançando se resume a atuar como meros exportadores de dados e fornecedores de uma nova mão de obra para estes conglomerados já configurados em torno da IA generativa.

Sinal de alerta

O movimento de consolidação global dos mercados de IA acendeu o sinal amarelo em países como Reino Unido e os que compõem a União Europeia. Dois anúncios nos últimos dois meses revelam esta preocupação. Em abril, a Competition and Markets Authority (CMA) publicou uma atualização de seu relatório de acompanhamento da atuação das empresas que controlam foundation models para identificar potenciais ações de concentração no mercado britânico.

Primeiramente, o relatório identificou a presença horizontal das cinco principais big techs do mundo (Google, Apple, Meta, Microsoft e Amazon) nas cadeias de valor que conformam os mercados digitais.

Indo mais fundo na análise, a autoridade encontrou 90 acordos de investimentos entre estes cinco conglomerados e desenvolvedores de foundation models em um complexo emaranhado de negócios.

A conclusão da CMA sobre este aspecto cogita a possibilidade das parcerias serem manobras contratuais para evitar o escrutínio dos órgãos de defesa da concorrência:

“Também estamos atentos à possibilidade de as empresas estabelecidas tentarem usar parcerias e investimentos para anular ameaças à concorrência, mesmo quando não há certeza de que essas ameaças se concretizarão. Nesse contexto, é importante ressaltar que nem todas essas parcerias e investimentos se enquadram no escopo das regras de controle de fusões e alguns podem ter sido estruturados para tentar evitá-las”.

Na União Europeia, a preocupação gerou uma espécie de ação compensatória para reverter um vazio na regulamentação recém-aprovada, o AI Act. Em maio, o grupo de alto nível que acompanha a implementação do Digital Markets Act (DMA) – a regulação econômica de plataformas digitais – criou um subgrupo para acompanhar os impactos econômicos que a atuação dos desenvolvedores de IA poderá exercer sobre os mercados digitais dos países do bloco. Ao focar o conteúdo do AI Act apenas em aspectos de proteção de direitos e controle de níveis de risco, o Parlamento Europeu teve que agora criar uma relação complementar dos aspectos de competição com o DMA assim como de outros regulamentos de seu pacote de legislações:

“Os gatekeepers dos principais serviços de plataforma devem cumprir as obrigações estabelecidas no DMA, que visam garantir mercados digitais justos e contestáveis, também quando os gatekeepers implantam IA no contexto de seus principais serviços de plataforma designados. Alguns gatekeepers já foram designados pelo DMA em relação a vários de seus principais serviços de plataforma, muitos dos quais estão se integrando a sistemas de IA. Na medida em que esses sistemas de IA são incorporados aos serviços da plataforma principal designada, as obrigações da DMA se aplicam, e a conformidade deve ser avaliada levando-se em conta como os sistemas de IA determinam os comportamentos que são cobertos pelas disposições da DMA. Além disso, o DMA regula o tipo de dados pessoais e comerciais disponíveis para treinar ou operar os sistemas de IA dos gatekeepers, exigindo o consentimento dos usuários finais para determinados tipos de processamento de dados e proibindo o uso de tais dados em concorrência com os usuários comerciais”.

Cabe destacar aqui, como se vê ao final deste trecho, que a supervisão do grupo de alto nível do DMA pretende criar amarras para que os dados pessoais dos cidadãos europeus só possam ser usados para treinar os sistemas se houver consentimento dos usuários finais. O relativo fechamento do mercado de dados do bloco, que aprovou o Data Act e o Data Governance Act, é uma clara reação à entrada das big techs naquela região. Como se sabe, sem uma vasta quantidade de dados não há IA generativa.

A Itália, primeiro país europeu a suspender o ChatGPT em seu território por descumprimento da lei de proteção de dados, decidiu buscar seu próprio caminho. Liderado pela Sapienza Universitá de Roma, o grande modelo de linguagem do país, o Minerva, pretende utilizar dados italianos com mais de 500 bilhões de palavras para seu treinamento. Os idealizadores do projeto pretendem desenvolver sistemas que atendam a uma ampla gama de necessidades de aplicativos, desde a compreensão da linguagem natural até a geração de textos, da tradução automática ao suporte automatizado ao cliente.

No próprio berço das big techs, o Departamento de Justiça e a Federal Trade Commission estão levando adiante investigações antitruste sobre os papéis dominantes que Microsoft, OpenAI e Nvidia desempenham na indústria de inteligência artificial dos EUA. O primeiro órgão cuidará da investigação sobre se o comportamento da Nvidia, a maior fabricante de chips de IA, violou as leis antitruste. Além disso, a FTC também irá analisar a conduta da OpenAI e da Microsoft, que investiu US$ 13 bilhões (R$ 68,2 bilhões) na empresa responsável pelo ChatGPT, além de ter feito acordos com outras empresas de IA. A situação se torna ainda mais complexa do ponto de vista regulatório após o anúncio da última semana, quando a Apple efetivou sua entrada na disputa também se valendo de recursos da OpenAI.

O abrir de olhos de alguns países pode ajudar a despertar as autoridades de outros para todos os riscos em jogo no momento. Até o momento, porém, a dispersão e a descoordenação de ações voltadas à IA ao redor do globo permanece grande. O Observatório de IA da OCDE, monitorando 69 nações, já identificou mais de mil atividades, iniciativas e ações envolvendo o tema.

Sul Global

Além da notável desvantagem científica, tecnológica, de infraestrutura, de capital humano e de recursos públicos para estruturar seus ecossistemas de IA, os países em desenvolvimento estão penando com a falta de uma visão estratégica, que busque algum tipo de autonomia, e com a forte pressão destas empresas estrangeiras em território nacional. Quanto mais exportam dados, maior o cerco.

As estratégias das cinco big techs, além da OpenAI e Anthropic, incluem acordos com órgãos governamentais e instituições públicas, universidades, entidades do setor privado, cursos online gratuitos para estudantes, profissionais e servidores públicos e as campanhas de marketing das próprias empresas e de consultorias, que se apoiam no hype promovido pela popularização da IA generativa.

Ideologicamente, a coação é mais sutil e se dá no campo regulatório. Para evitar a aprovação de regulamentações muito detalhistas, que emulem a europeia, as empresas apelam para um discurso falacioso. Seu principal argumento é a necessidade de aprovar um regramento mais principiológico para não prejudicar a inovação. Como mostra a pesquisadora Anu Bradford, da Escola de Direito de Columbia, esta é uma falsa escolha (ver artigo). Regulação assimétrica, distinguindo grandes atores de desenvolvedores locais, já seria uma forma de sanar este desequilíbrio preservando a inovação nacional.

Mesmo que um país opte por algo que exija maior compliance das empresas de acordo com níveis de risco, a ênfase na proteção de direitos, como adotada pelo AI Act, não resolve o problema de falta de soberania, de amarras concorrenciais e fomento ao desenvolvimento econômico, científico e tecnológico nacionais. Esta abordagem jurídica, originada na majoritária influência de especialistas oriundos da área de proteção de dados pessoais sobre as legislações de IA, cria situações de fato de difícil reversão.

O percurso brasileiro

Com iniciativas em várias esferas, do Legislativo ao Judiciário, passando pelo Executivo, o Brasil está em uma posição privilegiada para estruturar seu projeto nacional para IA mas também para fazer a voz do Sul Global ser ouvida nos fóruns internacionais. No início deste ano, o presidente Luiz Inácio Lula da Silva, na segunda reunião ordinária do Conselho Nacional de Ciência e Tecnologia (CCT), conclamou diversos ministros e pesquisadores a apresentarem um plano brasileiro de IA que fizesse o país ser competitivo neste setor. A ideia do presidente é anunciar esta proposta na 79ª Sessão da Assembleia Geral das Nações Unidas, em setembro.

E Lula foi além em sua ambição provocado por um convite do presidente da Espanha, Pedro Sánchez, de desenvolver um projeto conjunto com o Brasil: “Ele me fez uma proposta que eu achei extremamente interessante, para que o Brasil e a Espanha fizessem uma parceria para que a gente criasse uma inteligência artificial na nossa língua portuguesa e espanhola (…) É possível sentar os pensadores de ciência e tecnologia da Espanha junto com os nossos para a gente imaginar uma coisa nova. Para não ficar a reboque, mais uma vez, dos acontecimentos de outros países”, completou o presidente. É isso o que a Itália vem fazendo, por exemplo, com seu modelo Minerva.

Na semana passada, durante manifestações na sede da Organização Internacional do Trabalho (OIT), em Genebra, e no encontro do G7, na Itália, Lula voltou a tratar de IA acrescentando pontos importantes. Segundo ele, o Sul Global não apenas precisa entrar nesta disputa como precisa ter controle sob os dados que produz e são usados por estes sistemas. “Conduzir uma revolução digital inclusiva e enfrentar a mudança do clima são dilemas existenciais do nosso tempo”, discursou o presidente. “Na área digital, vivenciamos concentração sem precedentes nas mãos de um pequeno número de pessoas e de empresas, sediadas em um número ainda menor de países. A inteligência artificial acentua esse cenário de oportunidades, riscos e assimetrias. Seus benefícios devem ser compartilhados por todos.”

Infelizmente, a visão estratégica de Lula não vem se refletindo nas negociações de textos gerados dentro do Parlamento. Redigido por uma comissão de juristas, em sua maioria oriundos da formulação da Lei Geral de Proteção de Dados (LGPD), o atual PL 2338/2023 possui uma ênfase necessária, porém insuficiente, na questão da garantia e proteção de direitos e no gerenciamento dos sistemas de IA por níveis de risco, fortemente inspirado na minuciosa legislação europeia.

O problema estratégico maior, na verdade, não é o que o texto traz, mas o que ele deixou de fora. Após vários meses de discussão, continuam passando ao largo de suas mais de 30 páginas aspectos culturais, concorrenciais, de desenvolvimento nacional sobre o prisma da soberania de dados e infraestrutura sustentável, proteção dos novos trabalhadores de dados, promoção de empresas brasileiras, além da inovação, relegada à uma mera criação de sandboxes regulatórios.

Dados compartilhados

Aqui vale pontuar um tema fundamental também esquecido no PL 2338. Trata-se do acesso aos mercados de dados privados controlados pelas principais plataformas digitais e de IA. Enquanto algumas estratégias nacionais de IA de países europeus, como França e Alemanha, preveem que estes ativos possam ser compartilhados com todos — o chamado data sharing a partir de data trusts — isso não se faz presente em estratégias nacionais de países do Sul Global ou em iniciativas de regulamentação. Como antecipou Parminder Jeet Singh três anos antes do boom da IA generativa:

“As propostas de políticas geralmente consideram o compartilhamento de dados como um requisito excepcional, que pode ser garantido de alguma forma quando e onde for necessário. Esse certamente não é o caso. O compartilhamento de dados do setor principal é quase universalmente uma necessidade central, e não excepcional, da economia digital atual. É o principal ponto de partida para explorar qualquer alternativa ao modelo de economia digital do Vale do Silício (…) Igualmente falaciosa é a crença em qualquer tipo de compartilhamento voluntário significativo dos principais dados do setor, a não ser nas margens que os grandes players possam considerar inofensivo, ou mesmo útil, para compartilhar. (…) Tampouco as corporações digitais globais venderão seus principais ativos de dados, apenas porque alguns mercados de dados protegidos e bem regulamentados foram criados, conforme previsto em muitas estratégias de IA”.

Superar isso, na opinião de Singh, requer primeiramente desmitificar o conceito de livre fluxo transfronteiriço de dados, defendido especialmente por parte dos EUA e de seus aliados como forma de preservar o status quo que lhes permite coletar e armazenar dados sem qualquer ingerência de autoridades nacionais[1]. Na situação atual, esta defesa serve principalmente para que as corporações digitais globais possam contornar a regulamentação nacional, de modo geral, e se antecipar a quaisquer reivindicações econômicas sobre dados por parte dos contribuintes de dados.

“Estamos defendendo exatamente o oposto. Os fluxos transfronteiriços de dados podem, entretanto, ser permitidos desde que sejam estabelecidos acordos internacionais apropriados e aplicáveis que reconheçam e protejam os direitos primários de uma comunidade e de uma nação sobre seus dados, no verdadeiro espírito de soberania, policentricidade e subsidiariedade. Algum tipo de princípio de ‘regra de origem’ pode ser empregado para fluxos de dados globais gerenciados, e o local de origem também é tecnicamente carimbado nos pontos de coleta inicial de dados. Como é improvável que haja um acordo global desse tipo em breve, podem ser negociados acordos regionais para ‘espaços únicos de dados’ gerenciados, que reconheçam centralmente os direitos econômicos coletivos sobre os dados das comunidades e dos países de origem. Regiões como a África, a América Latina, a Asean e a UE podem ser atualmente boas candidatas a esses regimes”. (Singh, 2019)

Uma das pautas mais importantes e que hoje se tornou um obstáculo em que esbarram as estratégias de desenvolvimento nacional mais soberanas de IA é a localização e a proteção dos dados. Talvez seja a principal barreira de entrada para novos atores nesta corrida porque as informações que as principais plataformas digitais acumularam nos últimos 15 anos a partir da coleta e armazenamento de uma infindável quantidade de dados de seus usuários hoje constituem o principal ativo para seus valores de mercados atingirem a casa dos trilhões.

Estados que pretendam construir seu ecossistema de IA e que não estiverem preocupados em manter controle sobre os dados gerados em seu território, com a devida monetização e tributação de sua circulação, não terão vantagens comparativas para desenvolver seus sistemas especialistas em relação a estas megaestruturas globalmente constituídas há mais de uma década. Sem isso, o espaço que sobra será em nichos de mercado ou no atendimento a demandas sociais, onde o mercado interno do país viabiliza o investimento.

Janela de oportunidade

Dados à parte, omissões como estas estão ocorrendo também nos debates sobre IA travados no âmbito do G20, do G7 e de agências da ONU. Nestes espaços, ganham destaque os pontos relacionados à ética, confiabilidade e segurança dos sistemas e também sobre a adoção acrítica da nova tecnologia — sob a famosa consigna AI for good. Um silêncio eloquente surge quando se tenta introduzir pautas como as listadas nos parágrafos anteriores e que busquem dar luz às questões geopolíticas nelas embutidas.

No mesmo evento do G7 onde Lula defendeu que a IA inclua os países do Sul Global, os líderes das sete maiores economias do mundo aprovaram um comunicado em que o tema da inteligência artificial foi tratado, mais uma vez, como apenas uma questão de ética, segurança e controle de riscos.

“Buscaremos uma transformação digital inclusiva, centrada no ser humano, que sustente o crescimento econômico e o desenvolvimento sustentável, maximize os benefícios e gerencie os riscos, de acordo com nossos valores democráticos compartilhados e com o respeito aos direitos humanos.” Nenhuma linha sobre como este grupo rececpionará a demanda dos demais países por uma governança global multilateral e como este tratamento gerará valor e renda para países que estejam tentando desenvolver seus próprios mercados digitais.

No momento em que nos encontramos, o Brasil tem uma oportunidade única de fazer diferença ao destacar o papel que economias como as nossas podem desempenhar no cenário que já se impõe. A começar pela autonomia em torno do controle de dados produzidos e exportados por cada país, uma manifestação estratégica iria no sentido de afirmar a necessidade de criação de modelos de inteligência artificial baseados nas realidades de cada nação e na ênfase em se desenvolver ecossistemas próprios com investimento em empresas locais a fim de que sejam estabelecidos freios e contrapesos econômicos para o predomínio dos conglomerados estadounidenses e acesso a seus dados. Trata-se de um exercício de autodeterminação e soberania declarar o que cada país aceitará frente a um novo pacto tecnológico.

Esta visão para o Sul Global buscando o desenvolvimento nacional encontraria eco em ações do secretário-geral da ONU, António Guterres. Ele está empenhado em criar uma governança internacional e estruturas próximas a seu gabinete a fim de gerar maior equilíbrio entre a meia dúzia de protagonistas desta tecnologia revolucionária e o restante da humanidade. No final de maio, Guterres afirmou: “Não podemos caminhar sonâmbulos para um futuro distópico onde o poder da IA é controlado por poucas pessoas — ou pior, por algoritmos obscuros que vão além da compreensão humana. Precisamos de regras. Segurança. Proteção universal. A forma como agirmos agora definirá a nossa era”.

O presidente Lula tem todas as condições e a visão histórica de usar a tribuna da ONU para vocalizar, em nome dos demais países em desvantagem nesta corrida, os aspectos sociais, políticos, culturais e econômicos que estão em jogo. No lugar de propor mais do mesmo, o Brasil pode representar o Sul Global na afirmação da soberania digital frente ao avanço avassalador de um novo artefato de promoção de desigualdades entre as nações.

James Görgen é especialista em Políticas Públicas e Gestão Governamental e coordenador de Mercados Digitais no Ministério do Desenvolvimento, Indústria, Comércio e Serviços (MDIC)


Notas

[1] Assunto tratado por mim aqui.

Leia Também: