IA: o Olho do Mestre definirá o que é normal?
Filósofo Matteo Pasquinelli reflete sobre papel da inteligência artificial no trabalho e na saúde. Alerta: sem mudanças políticas e sociais, servirá de instrumento para potencializar poder de vigilância e controle – e estabelecer o que é desviante, anormal ou patológico
Publicado 08/07/2025 às 08:47 - Atualizado 08/07/2025 às 08:52

Leia todos os textos da coluna de Leandro Modolo
Matteo Pasquinelli em entrevista a Leandro Modolo
Há mais de cinco anos, eu lia O Manifesto Nooscópio: Inteligência Artificial como Instrumento de Extrativismo do Conhecimento, de Matteo Pasquinelli e Vladan Joler. A conjuntura ainda era outra, a IA ainda não tinha ganhado o peso de marketing como atualmente e tampouco tínhamos que lidar com a intrusão das LLMs e cia em nossas vidas. Naquela altura o texto me impactou pela capacidade de síntese e tato crítico, além do cuidado artístico que o compõem. Então achei por bem correr para traduzi-lo – enquanto ainda faziam sentido ações como essas. De lá para cá tenho tentado acompanhar toda a produção de Pasquinelli e, a despeito das discordâncias aqui ou acolá, a riqueza do seu trabalho me encanta sempre mais.
Pasquinelli é professor de filosofia da ciência no Department of Philosophy and Cultural Heritage da Ca’ Foscari University, onde coordena o projeto ERC AIMODELS. Sua trajetória acadêmica inclui passagens pelo Pratt Institute em Nova York e pela Universidade de Artes e Design de Karlsruhe, onde ajudou a fundar o grupo de pesquisa em Inteligência Artificial e Filosofia da Mídia (KIM).
Há menos de dois anos, ele publicou The Eye of the Master: A Social History of Artificial Intelligence [“O olho do mestre: uma história social da inteligência artificial”, em tradução direta], traduzido em mais de dez idiomas – mas ainda sem versão em português. De leitura densa e recheado de controvérsias excelentes, a tese fundamental do autor desafia a visão dominante da IA como imitação da inteligência “cerebral” ou “mental”. Ele argumenta que o código interno da IA é moldado pela inteligência do trabalho e das relações sociais, não pela replicação de processos cognitivos humanos. E o “olho do mestre” refere-se a expressão marxiana descrita em O Capital para se referir ao processo de vigilância e controle do capitalista sobre seus trabalhadores. O ‘olho’ representa o monitoramento granular e crescente de cada aspecto do processo de trabalho, sobretudo dos padrões de comportamento de associação e cooperação entre trabalhadores/as – do trabalho coletivo.
Para aqueles e aquelas que se interessam por filosofia, história, economia, política e cultura das novas tecnologias, trata-se de um do melhores das últimas décadas. Para aqueles e aquelas que desejam e lutam por um sociedade pós-capitalista, é simplesmente imprescindível. E enquanto não o temos em nossas livrarias, vale um aperitivo: uma entrevista com o autor, que você lê a seguir.
Eu me impactei muito lendo The Eye of the Master, sobretudo porque ele coloca na mesa uma controvérsia das mais ricas e profícuas: você defende que o verdadeiro modelo para “invenção” da IA não é mente humana, mas as relações de trabalho — especialmente a divisão social do trabalho. Por favor, nos conte mais sobre isso. A IA não é uma tecnologia que reproduz a “inteligência” humana? Ela não “aprende” tal como os seres humanos?
A IA não é uma manifestação de racionalidade abstrata ou superinteligência, como sugerem certas narrativas populares. Ela é, antes, um diagrama do trabalho cooperativo. E, na minha perspectiva, todo trabalho é, por definição, cooperativo. Quando atendo um telefone, por exemplo, estou cooperando com outra pessoa do outro lado de uma infraestrutura de comunicação que só existe graças à contribuição de centenas de outros trabalhadores. Quando atribuo significado a uma imagem ou signo, isso é feito em negociação contínua com toda uma coletividade humana, com gerações que me antecederam.
Modelos de IA capturam e codificam precisamente essa complexa rede de relações sociais, transformando-a em uma representação estatística sofisticada — um espaço multidimensional de dados que podemos considerar como uma espécie de “trabalho artificial”, ou mesmo “trabalho alienado”, no sentido de um conhecimento e de uma cultura coletivos que foram extraídos, apropriados e privatizados em plataformas proprietárias.
Matematicamente falando, a IA funciona com base em médias estatísticas: ela opera sobre representações numéricas da cultura humana, organizadas em arquivos digitais — os chamados conjuntos de dados de treinamento. Sistemas como o ChatGPT processam grandes volumes desses dados (textos, imagens e outros formatos) para gerar previsões e classificações a partir dos valores médios extraídos desse conhecimento coletivo. Ou seja, a IA mecaniza a “inteligência média” de uma sociedade em determinado tempo e contexto, e não reflete qualquer tipo de inteligência humana individual.
Apesar disso, utilizamos termos antropomórficos para nos referirmos à IA porque essa sempre foi uma estratégia recorrente da automação industrial. Mas o aprendizado de máquina não tem qualquer relação com o aprendizado humano. Não é como o de uma criança. Há, sim, projetos que tentam replicar o aprendizado infantil em sistemas computacionais, mas considero essa ambição profundamente colonial. Como mostram Kalindi Vora e Neda Atanasoski em Surrogate Humanity, a automação sempre foi construída sobre a invisibilização do trabalho de mulheres, pessoas escravizadas, servos e outros sujeitos historicamente marginalizados. O sonho da automação — especialmente no Ocidente — é, desde o início, o de extrair a humanidade dos humanos e transferi-la para as máquinas. Como um vampiro, as tecnologias automatizadas substituem trabalhadores, ao mesmo tempo que exploram e instrumentalizam características humanas com outros propósitos.
Assim, pensar a IA a partir da divisão social do trabalho nos obriga a reconhecer que ela tem menos a ver com inteligência e mais com extração, mecanização e alienação do trabalho e conhecimento coletivo.
É por isso que você começa o livro com o motorista de caminhão como exemplo de um trabalho também intelectual ou cognitivo, não apenas um trabalhador manual? Na sua argumentação, a IA recoloca a antiga e importante questão da dicotomia entre cabeça e mão, trabalho intelectual e manual. Como o sr. vê tudo isso?
Começo o livro com o exemplo do motorista de caminhão justamente como uma provocação a essa separação tradicional entre trabalho manual e intelectual. Costumamos pensar que nossas mãos não produzem inteligência abstrata, que o pensamento nasce separado da ação, como se existisse uma oposição essencial entre teoria e prática, entre especulação e ofício. Mas essa dicotomia é, na verdade, insustentável. A teoria emerge da prática; o ofício nasce das nossas relações sociais e da experiência concreta. Atividades consideradas manuais estão impregnadas de capacidades cognitivas, de raciocínio abstrato e de cooperação – e o trabalho dos caminhoneiros é um exemplo eloquente disso.
Gramsci já dizia: “Todos os seres humanos são intelectuais”. Não se pode falar de “não-intelectuais” porque não há atividade humana que esteja dissociada do intelecto. O que é sintomático – e também triste – é que só agora, com o avanço da IA, estamos redescobrindo o valor cognitivo dos saberes manuais, artesanais, técnicos e projetuais.
Neste sentido, sempre considerei o dualismo corpo-mente profundamente problemático. Concreto e abstrato estão sempre em relação dialética. Mesmo a percepção do corpo passa por um mapeamento cerebral contínuo. O tato per se, por exemplo, é em parte uma ilusão – algo que tanto a filosofia budista antiga quanto a neurologia contemporânea mostram. Assim também é com as ideias: elas se formam a partir de nossos movimentos corporais, das interações espaciais e sociais que vivemos.
Por isso, defendo que a distinção entre trabalho manual e intelectual está superada. O trabalho manual é, também, uma atividade intelectual – e não é preciso ser filósofo para reconhecer isso. Aliás, o próprio trabalho “mental”, historicamente, sempre envolveu as mãos. Cálculo manual, por exemplo, é feito com os dedos antes de se tornar abstração interna. A palavra “manipulação” – que usamos hoje até para descrever operações simbólicas e mentais – vem do latim manipulatio, ou seja, “movimento feito com a mão”. Isso mostra como o pensar e o fazer estiveram sempre ligados. A IA apenas nos obriga a encarar esse fato com mais clareza.
Agora ficou mais claro. É nesse sentido que você fala da lógica que organiza o trabalho, as relações de trabalho e, sobretudo, a divisão social do trabalho?
Se observarmos a história da ciência e da tecnologia, veremos que a própria concepção de ferramentas e máquinas está profundamente enraizada na maneira como o trabalho foi sendo dividido. A divisão do trabalho foi responsável tanto pelo surgimento de ferramentas pré-históricas quanto pelo desenvolvimento das primeiras máquinas industriais, que, por sua vez, inspiraram o nascimento de novas disciplinas científicas — como a termodinâmica. Essa ciência sequer existia antes das máquinas a vapor, e estas só surgiram quando a economia industrial passou a organizar o trabalho de forma mais intensiva e produtiva.
Hoje, essa lógica segue operando sob novas formas. O trabalho do condutor na economia de plataforma — a pessoa que nos entrega comida ou nos transporta pela cidade — é mediado por algoritmos que coordenam e controlam sua atividade. Na chamada economia gig, as aplicações digitais não apenas acompanham os nossos movimentos e relações sociais nas cidades, como também reorganizam a divisão do trabalho com base nesses rastros de dados. Essa reorganização não foi fruto de uma abstração teórica, mas de uma prática concreta: motoristas de táxi, munidos de smartphones, deixavam vestígios digitais em centros de dados. Um dia, alguém olhou para esses vestígios — para esses diagramas abstratos — e percebeu que poderia rentabilizá-los, automatizando ainda mais o processo.
Esse olhar organizador, baseado na extração e reorganização do trabalho humano, está no núcleo da inteligência artificial contemporânea. É isso que chamo de “olho do mestre” — uma expressão oriunda da revolução industrial, mas que continua extremamente atual para descrever como a lógica da divisão social do trabalho persiste, mesmo sob as formas tecnológicas mais recentes.
Nesse sentido, com o trabalho humano no centro da análise, estamos vivendo uma nova rodada do “fim do trabalho”? Como o você compreende a dita “nova revolução industrial”?
Se colocarmos o trabalho humano no centro da análise e deixarmos de lado o termo enganoso “inteligência” para focar na composição material das plataformas de IA, percebemos que o cenário que se desenha é bem distinto da ideia de “automação total” e “desemprego tecnológico”. O que emerge, em vez disso, é uma forma de automação orientada não para a substituição integral dos trabalhadores, mas para a decomposição e automação de microtarefas modulares.
Tomemos como exemplo o ChatGPT: trata-se de um sistema instalado em um único data center — digamos, em Utah, nos Estados Unidos — que atende milhões de usuários conectados de seus lares ou escritórios ao redor do mundo. O que está em jogo aqui não é apenas a inteligência do sistema, mas a constituição de um monopólio global sobre o trabalho em rede, o que revela uma forma distribuída e centralizada de automação laboral.
Nesse modelo, o trabalhador não é simplesmente descartado: ele é reconfigurado como um metatrabalhador, uma espécie de ciborgue, se quisermos usar essa imagem aplicada ao trabalho, operando na interseção entre capacidades humanas e tarefas automatizadas. Cada microtarefa, isoladamente, pode parecer uma extensão das capacidades do trabalhador, mas, na prática, esgota sua energia e soma novas formas de estresse às já conhecidas alienações do trabalho digital ou em plataformas.
O uso da IA, como o ChatGPT, representa assim uma faca de dois gumes: se por um lado oferece ferramentas de produtividade, por outro impõe um novo regime de pressão. A expectativa é que os trabalhadores desempenhem suas funções com mais rapidez — não para terem mais tempo livre, mas para serem cobrados por ainda mais velocidade. O conhecimento e a experiência humana deixam de ser valorizados em si mesmos, passando a ser medidos em termos de eficiência imposta por padrões automatizados.
O verdadeiro paradoxo da IA, portanto, é que ela não elimina os trabalhadores, mas os multiplica em sua forma mais precária. Em vez de encerrar o trabalho, ela o fragmenta, gerando subemprego e forçando os trabalhadores a atuarem de maneira mais esporádica, instável e pulverizada. Em um contexto global de estagnação e precarização, o que se desenha com essa chamada “nova revolução industrial” é uma intensificação do trabalho — não o seu fim.
Então, afinal, como você define inteligência artificial?
A resposta mais direta é que a inteligência artificial é uma técnica de reconhecimento de padrões — uma forma de extrair padrões a partir de qualquer coisa. Essa técnica se baseia no que se chama de análise multidimensional, e é fundamental entender que a revolução atual da IA está profundamente ligada à história da produção de imagens e às transformações que essa história sofreu ao longo do tempo.
No início, por exemplo, as imagens eram pinturas sem perspectiva. Depois, com a aplicação da trigonometria no antigo Oriente Médio, surgiu a perspectiva moderna, que introduziu um ponto de vista. Mais tarde vieram a Camera Obscura, a fotografia analógica e o cinema, todos capazes de reproduzir imagens de forma mecânica. Em determinado momento, com o surgimento das imagens digitais, o campo visual passou a ser convertido em uma grade de números — um dado fundamental para a lógica da IA.
Nas décadas de 1950 e 1960, os ciberneticistas começaram a investigar como o reconhecimento de imagens poderia ser automatizado. Com forte apoio financeiro do setor militar nos Estados Unidos, esses pesquisadores buscaram desenvolver técnicas para reconhecer imagens com base em valores numéricos. Inicialmente, tentaram fazer isso em duas dimensões, mas sem sucesso.
O grande avanço que possibilitou a IA atual ocorreu quando se deixou de tratar imagens como mapeamentos bidimensionais e passou-se a trabalhá-las em um espaço multidimensional. Para ilustrar: se pegarmos uma imagem de 20 por 20 pixels — algo comum nos computadores dos anos 1950 —, ela pode ser representada como um único ponto em um espaço de 400 dimensões. Isso mesmo: 400 dimensões. Nesse espaço, o reconhecimento de padrões funciona da seguinte forma: imagens semelhantes ocupam regiões próximas entre si, enquanto imagens diferentes ficam afastadas em outras regiões. É possível, então, aplicar técnicas geométricas para separar e navegar por esse espaço — e foi assim que se resolveu o problema do reconhecimento de imagens.
Diferentemente da mente humana, que não consegue operar naturalmente em espaços multidimensionais e precisa recorrer a equações, o computador é capaz de fazê-lo com facilidade. Mesmo sendo “cego” — ou seja, sem saber se os números que manipula se referem a uma imagem ou a qualquer outro dado —, ele consegue navegar nesses mundos multidimensionais com uma eficiência superior à da cognição humana.
Portanto, inteligência artificial, nesse sentido, não é uma simulação de mente, mas um sistema computacional altamente eficaz de manipulação matemática de padrões em espaços de múltiplas dimensões.
Mas… E o caso dos LLMs [Large Language Models] como o ChatGPT?
Os LLMs como o ChatGPT são um desdobramento direto disso, quando em 2012 Geoffrey Hinton e seus alunos aplicaram com sucesso essas técnicas ao reconhecimento de imagens complexas. A inovação veio ao perceber que essas mesmas técnicas poderiam ser aplicadas ao texto — como é feito no ChatGPT —, o que provocou uma verdadeira revolução na linguística. Isso porque também as palavras podem ser organizadas em agrupamentos dentro de um espaço multidimensional.
Esse espaço multidimensional, por sua vez, torna-se multimodal: os vetores numéricos que o compõem podem representar simultaneamente palavras, imagens, sons. E há um outro aspecto crucial nessa arquitetura, que é sua capacidade generativa. Com grandes conjuntos de dados de treinamento — como, por exemplo, uma coleção de pinturas de um museu —, o sistema não apenas reconhece padrões, mas é capaz de produzir novas combinações e variações desses padrões.
Portanto, no caso dos LLMs, a inteligência artificial aparece como uma técnica voltada para projetar culturas humanas em um espaço multidimensional e operar dentro dele, tanto para identificar regularidades quanto para gerar artefatos inéditos.
Focando um pouco mais no campo da saúde, estamos assistindo um acelerado processo de “digitalização” de parte considerável dos serviços de saúde. O que inclui a prestação de serviços de saúde por agentes maquínicos, cibernéticos. Agentes que, como sabemos, são máquinas estatísticas treinadas com padrões para reproduzir padrões. Na saúde, porém, um determinado padrão é sinônimo de norma e normal, e a definição do que é normal implica diretamente o enquadramento do que é anormal e do que é patológico. O que abre um caixa de problemas. Em primeiro momento, o que vem ao debate é a questão do viés, seja ele rascista, sexista, elitista etc. Mas, sabemos também, definir a fronteira entre normal e anormal é uma fonte de poder decisiva – os Estados-nacionais, por sinal, sempre dependeram dessa fonte para manter sua forma política de dominação. Como encara isso?
O poder normalizador da inteligência artificial, especialmente em contextos como a saúde, é profundamente enraizado em tradições estatísticas que remontam ao final do século XIX. Técnicas como correlação, desvio-padrão, regressão logística e análise fatorial já eram utilizadas para discriminar e controlar comportamentos sociais, e é justamente essa vocação normalizadora que reaparece na IA contemporânea. Muitos estudiosos já destacaram essa continuidade, mas acredito que o problema do viés vai ainda mais fundo.
A IA, como a conhecemos hoje, participa de um processo histórico mais amplo de discriminação. Antes de substituir trabalhadores, ela os mede, avalia e reorganiza com base em métricas que impõem novas hierarquias sociais e uma nova divisão do trabalho. Assim, o viés de classe, gênero e raça que a IA amplifica não deve ser visto como um defeito técnico a ser corrigido, mas como uma característica estrutural de sua lógica de automação. É preciso questionar o sentido profundo das políticas que buscam “corrigir” o viés algorítmico: em geral, elas se propõem a garantir representações justas das diversas identidades sociais, mas deixam intacta a própria lógica que hierarquiza habilidades mentais e manuais como critério de valor e qualificação.
Portanto, o impacto da IA não se limita à reprodução de categorias sociais excludentes — ele estrutura uma divisão implícita de saber e trabalho. Modelos como o ChatGPT, por exemplo, não são apenas ferramentas de automação do trabalho intelectual. Eles representam uma média estatística da inteligência coletiva, e essa média está se consolidando como um novo critério normativo: uma métrica social da inteligência e da competência profissional. É essa transformação — a estatística se tornando medida tácita do valor humano — que constitui o viés invisível da IA, raramente percebido. Qual é o trabalhador normal em tempo de IA?
Esse poder normativo é agravado pelo fato de que o poder de definir o “normal” — historicamente exercido por instituições estatais como hospitais, universidades ou escolas — agora migrou para plataformas corporativas globais, sustentadas por data centers e algoritmos proprietários. Como destaco em meu livro, não é acidental que a primeira rede neural, o Perceptron de Frank Rosenblatt, tenha sido concebida com base na psicometria — uma disciplina normativa voltada à mensuração da cognição humana, como nos testes de QI. Tratou-se de automatização dos princípios da psicometria, enquanto ferramenta estatística de classificação. Dito de outro modo, uma disciplina institucional como a psicometria, com uma forte dimensão normativa em relação à psique humana, tornou-se um princípio central do projeto de automação mais bem-sucedido, a IA. Foi transfigurada em motor técnico do projeto mais avançado de automação.
Visto por esse ângulo, a história da IA é também a história da mensuração das habilidades intelectuais e, inevitavelmente, da deficiência. Essa leitura certamente dialoga com a tradição dos estudos foucaultianos e da epistemologia crítica da ciência e da tecnologia. Mas talvez possamos ir além. Se revisitarmos hoje “Capitalismo e Esquizofrenia”, de Deleuze e Guattari — com sua concepção de inconsciente maquínico —, talvez seja possível enxergar a IA como algo mais do que um sistema de controle: como um aparato corporativo de alucinação, projetado para colonizar nosso inconsciente e organizar, segundo sua lógica própria, o que é desviante, anormal ou patológico.
Assustado prefiro voltar ao seu livro e a seu trabalho em geral (risos de nervoso)… Suas contribuições me parece caminhar para uma forma pensamento que abre um terreno enorme de novos levantamentos, interpretações e análises muito promissor. Como você interpreta a atual direção da sua pesquisa?
De certo modo, meu livro trata da pré-história da inteligência artificial. Ele encerra sua análise por volta da década de 1960, com o objetivo de esclarecer como essas máquinas e algoritmos foram inicialmente concebidos. Isso me permitiu investigar que tipo de “fósseis cognitivos” herdamos do conexionismo e como eles ainda informam a forma atual da IA. O foco ali está, sobretudo, na gênese dos sistemas visuais de inteligência artificial — uma linhagem da qual os modelos contemporâneos de linguagem, como os LLMs (incluindo o GPT), também descendem, mesmo que indiretamente.
A direção atual da minha pesquisa, no entanto, se desloca desse paradigma visual. Com o projeto ERC AIMODELS, iniciado em Nice em janeiro de 2024, passo a abordar mais diretamente a questão da linguagem — e, em especial, sua formalização como uma condição fundamental para o surgimento das tecnologias da informação e da IA. O que está em jogo agora é investigar como a linguagem foi central para as formas de produção e organização do trabalho no pós-fordismo, muito antes da chegada da IA como ferramenta para automatizar o trabalho linguístico.
Em outras palavras, o que tento fazer é propor uma interpretação da IA como uma forma de automação da linguística — se me permitem usar esse termo —, sempre ancorada nos contextos sociais e econômicos em que essa transformação se dá. Não se trata, portanto, de entender a inteligência artificial como um mero avanço técnico isolado, mas como uma tecnologia profundamente enredada nas formas históricas do trabalho e da linguagem.
Não consigo deixar de perguntar: como o sr. compreende o futuro das sociedades com a presença da IA?
Vejo esse futuro de forma contraditória e em disputa. Por um lado, há efeitos positivos inegáveis. A inteligência artificial está nos levando a redescobrir as capacidades dos nossos próprios corpos para produzir conhecimento e abstrações culturais. Isso é significativo, mas traz consigo uma reconfiguração: teremos uma nova composição social entre trabalho manual e mental, o que implica uma reorganização da sociedade baseada em novas hierarquias.
Em nível mais localizado, a IA pode trazer impactos positivos concretos, desde que esteja submetida a uma supervisão humana rigorosa. Nas humanidades digitais, por exemplo, o uso de estatísticas tem possibilitado novas formas de compreender a história da arte, do design, da moda — mapeando estilos e permitindo uma visão hiperestatística sobre os artefatos culturais. Na medicina, também, a modelagem estatística pode ser extremamente útil para identificar padrões de sintomas, desde que o método científico seja respeitado e o ser humano permaneça no centro do processo. Enfim, há uma longa lista de aplicações promissoras — mas elas dependem de condições muito específicas.
Mas, o que me preocupa profundamente é o modelo atual: uma economia do conhecimento organizada de forma oligárquica e sustentada por uma divisão do trabalho altamente hierarquizada. Sem uma transformação estrutural nesse modelo — sem uma revolução na economia e na forma como organizamos o trabalho —, não acredito que a IA, por si só, venha a produzir mudanças sociais positivas. A tecnologia pode ampliar capacidades, mas sem mudança política e social, ela tende apenas a reforçar as desigualdades, dominações e explorações existentes.
Sem publicidade ou patrocínio, dependemos de você. Faça parte do nosso grupo de apoiadores e ajude a manter nossa voz livre e plural: apoia.se/outraspalavras