Cátedra Google-USP: o lobo invade galinheiro?
Universidade pública, que paga por serviços e sofre com descumprimentos de acordos pela big tech, cria cooperação que promete uma “IA responsável”. Docentes denunciam conflito de interesses. Corporação é hostil à regulação das plataformas e age contra o pensamento crítico
Publicado 15/12/2025 às 16:32 - Atualizado 15/12/2025 às 16:39

Por Adusp
A USP e a big tech Google (Alphabet) firmaram novo acordo de colaboração, desta vez em torno da criação de mais uma “cátedra” do Instituto de Estudos Avançados (IEA), que será dedicada ao estudo de questões relacionadas à Inteligência Artificial (IA) e foi denominada “Cátedra Google-USP em IA Responsável”. Desde 2016 a Google já é responsável pelos serviços de correio eletrônico da universidade, que continuou operando mesmo depois que passou a descumprir compromissos do respectivo termo de cooperação, que previam armazenamento ilimitado de arquivos digitais, em “nuvem”, por parte dos(as) docentes usuários(as).
Docentes consultados pelo Informativo Adusp Online denunciam flagrante conflito de interesses nessa nova parceria da universidade com a Google, que é uma das maiores empresas do mundo e que já vem utilizando IA em larga escala. Em 2024, seu lucro líquido foi de 100 bilhões de dólares.
A “Cátedra Google-USP em IA Responsável” foi publicamente lançada no dia 2 de dezembro último, em pomposa cerimônia na sala do Conselho Universitário, na Reitoria da USP, com a presença do reitor Carlos Gilberto Carlotti Jr., da diretora do IEA, Roseli de Deus Lopes, e do presidente da Google Brasil, Fábio Coelho. Porém, segundo o site do IEA, o acordo de colaboração foi publicado dois meses antes — em 3 de outubro.
Também compareceram o “titular” da nova cátedra, engenheiro eletrônico e economista Carlos Américo Pacheco, professor do Instituto de Geociências da Unicamp, ex-presidente da Financiadora de Estudos e Projetos (Finep, 1999-2002) e ex-reitor do Instituto Tecnológico da Aeronáutica (ITA, 2011-2015), e o coordenador acadêmico, Glauco Antonio Truzzi Arbix, professor do Departamento de Sociologia da Faculdade de Filosofia, Letras e Ciências Humanas (FFLCH) e ex-presidente do Instituto de Pesquisas Econômicas Aplicadas (IPEA, 2003-2006) e da Finep (2011-2015). De acordo com o Jornal da USP, órgão oficial da Reitoria, Arbix é o “idealizador da iniciativa”.
O site do IEA publica apenas um extrato do acordo, segundo o qual a parceria prevê “a criação, a implementação e a operação da Cátedra Google-USP em IA Responsável no IEA”. O texto descreve um amplo escopo de pesquisas: “Pretende-se desenvolver e promover princípios éticos para o desenvolvimento e uso de IA, como justiça, transparência, privacidade e segurança; analisar os impactos da IA em áreas críticas como trabalho, educação, saúde, acessibilidade e meio ambiente, visando mitigar riscos e ampliar benefícios para estabelecer as bases para uma IA inclusiva; desenvolver mecanismos de governança para garantir o uso responsável da IA, incluindo políticas e regulamentações públicas, para mitigar os impactos negativos de dados tendenciosos e desinformação que podem prejudicar a população e a democracia; criar programas educacionais para promover a compreensão da IA e seus impactos, capacitando cidadãos e profissionais para o futuro da IA; e pesquisar e avaliar propostas para reduzir a lacuna entre os países que atualmente dominam as técnicas de IA e a maioria dos países em desenvolvimento, que não possuem o mesmo nível de conhecimento, infraestrutura computacional, dados e recursos de investimento”.
Mas, de acordo com o Jornal da USP, no primeiro ano de atividade a cátedra deverá trabalhar quatro temas, sendo o primeiro deles “Regulação e sandbox regulatório, para discutir modelos internacionais, equilibrar controle e inovação e negociar com USP e Google um arcabouço jurídico para experimentação”. A Agência Nacional de Proteção de Dados (ANPD) define sandbox regulatório como uma “experimentação colaborativa entre o regulador, a entidade regulada e outras partes interessadas”. Ainda segundo a ANPD, trata-se de um “espaço controlado”, autorizado pela Lei Complementar 182/2021, que “consiste na possibilidade de suspender temporariamente certas disposições ou requisitos, propiciando a experimentação sem o risco de sanções imediatas” e que “permite testes em pequena escala, em um contexto de confiança entre regulados e a ANPD”.
Os outros três temas que merecerão atenção da cátedra em 2026 seriam “Mercado de trabalho”, com análise de “impactos sobre postos, renda e qualificações, além de mapear talentos e propor ações de formação”; “Mapeamento de incidentes”, que envolve “parcerias com instituições e imprensa para formar um observatório que dê concretude ao debate sobre IA responsável”; e “Startups e políticas de apoio, para acompanhar o ecossistema empreendedor e propor iniciativas específicas”.
No lançamento, a diretora do IEA vaticinou que essa será “uma parceria de muito sucesso, tanto do ponto de vista técnico quanto em relação à discussão sobre a responsabilidade no desenvolvimento da inteligência artificial”, e alegou que o instituto tem o propósito de ser “um ponto de encontro para que pessoas de diferentes áreas do conhecimento, não só da academia, mas também das empresas e da sociedade, possam trabalhar juntas para avançar mais rapidamente”.
Já o presidente da Google Brasil, após lembrar que a empresa está celebrando vinte anos de atuação no país, sustentou que a nova cátedra “é um exemplo de iniciativas que podem nos ajudar a criar um Brasil mais forte, um Brasil produtor de soluções”. Fábio Coelho informou que o campus de São Paulo da Google for Startups está sendo transferido para a sede do Instituto de Pesquisas Tecnológicas (IPT), na Cidade Universitária do Butantã.
Centenária instituição de pesquisa, o IPT é uma empresa pública estadual que vem sendo privatizada desde o governo de João Doria-Rodrigo Garcia (PSDB). Em fevereiro de 2024, o governo Tarcísio de Freitas (Republicanos)-Felício Ramuth (PSD) divulgou, com alarde e jactâncias provincianas, contrato que permite à Google instalar-se no IPT: “Esta iniciativa junta os pilares da academia [sic], da indústria e do estado, e marca a entrada de uma empresa de grande porte que traz pesquisa e inovação para que o Brasil deixe de ser o eterno país do futuro”, pontificou o governador na ocasião.
O professor Ewout ter Haar, do Departamento de Física Experimental do Instituto de Física (IF-USP), está entre aqueles que consideram inaceitável o formato da “Cátedra Google-USP em IA Responsável”, por envolver uma relação deletéria do ponto de vista ético. “Compartilho da reação do meu colega Tel Amiel, da UnB [Universidade de Brasília], a respeito desta notícia: ‘Cátedra Souza Cruz de fumo responsável’”, declarou Ewout ao Informativo Adusp Online.
“Não parece crível que pesquisa sobre o uso responsável e ético de tecnologias subsidiada pelos fornecedores destas mesmas tecnologias pode ser feita de maneira independente e isenta. Há um conflito de interesses gritante, análogo às antigas pesquisas sobre os riscos de fumar subsidiadas pela indústria de tabaco nos anos 60 ou o greenwashing da indústria petrolífera”, explicou o docente do IF.
O professor Sérgio Paulo Amaral Souto, responsável pelo Laboratório de Física Aplicada e Instrumentação da Faculdade de Zootecnia e Engenharia de Alimentos (FZEA-USP), considera que a iniciativa de criar a cátedra, embora válida em princípio, está sendo implementada de forma no mínimo equivocada. “Mais uma vez, a Universidade se aproxima de um modelo que tende a subordinar sua atuação aos interesses privados e ao grande capital. Há aqui um conflito de interesses evidente: a produção intelectual e crítica de uma instituição pública não pode se confundir com os objetivos corporativos de empresas cujo histórico de atuação muitas vezes contraria os interesses mais amplos da sociedade”, adverte.
Souto cita reportagens que mostram a ação intensa das big techs, e especialmente da Google, durante a tramitação de propostas legislativas destinadas a regular plataformas digitais, como o PL 2.630/2020, o PL 3.227/2021 e o PL 592/2023, que incluiu campanhas publicitárias, lobby direto sobre parlamentares e mobilização institucional para apresentar textos alternativos, sempre em defesa de seus próprios interesses, contrários a qualquer regulação. “Diante desse histórico, é legítimo questionar se uma empresa com tal comportamento é realmente um agente comprometido em discutir os impactos sociais adversos da inteligência artificial no Brasil”, diz o docente da FZEA. “As discussões sobre inteligência artificial exigem independência, rigor crítico e compromisso com o interesse público — exatamente o que se fragiliza quando a pauta é conduzida sob a influência direta das corporações que serão objeto da própria crítica”.
Outras Palavras é feito por muitas mãos. Se você valoriza nossa produção, seja nosso apoiador e fortaleça o jornalismo crítico: apoia.se/outraspalavras

