Seria a IA o novo capataz?

Um mergulho histórico, econômico e filosófico na nova tecnologia. Ela seria antes de tudo ferramenta do capital para controle dos trabalhadores, como sustenta autor italiano? Sua gênese e aplicação atuais indicam algo muito mais complexo…

Arte: George Wylesol/The New York Review
.

Por Ben Tarnoff, no The New York Review | Tradução: Rôney Rodrigues

O Vale do Silício funciona com base na novidade. Ele é sustentado pela busca do que Michael Lewis uma vez chamou de “a nova novidade”. A internet, o smartphone, as redes sociais: a nova novidade não pode ser um ajuste modesto nas margens. Ela tem que transformar a raça humana. Os incentivos econômicos são claros: uma empresa que populariza uma invenção que quebra paradigmas pode ganhar muito dinheiro. Mas também há algo maior em jogo. Se o Vale do Silício não continuar a entregar novas novidades, ele perde seu status privilegiado como o lugar onde o futuro é feito.

Em 2022, a indústria estava tendo um ano ruim. Depois de uma pandemia lucrativa — as cinco maiores empresas de tecnologia adicionaram mais de US$ 2,6 trilhões à sua capitalização de mercado combinada em 2020 e quase a mesma quantia em 2021 — o setor sofreu uma de suas mais severas contrações de todos os tempos. A Amazon perdeu quase metade de seu valor, a Meta perto de dois terços. O Nasdaq, com forte peso em tecnologia, caiu 33%, seu pior desempenho desde a crise financeira de 2008.

As razões eram bastante diretas. No início da pandemia de covid-19, o Federal Reserve (Fed) cortou as taxas de juros para zero, e as pessoas ficaram em casa, onde passavam mais tempo e gastavam mais dinheiro online. Em 2022, ambas as tendências estavam em reversão. A maioria dos americanos havia decidido parar de se preocupar com o vírus e retomava alegremente suas atividades offline. Enquanto isso, o Fed começou a aumentar os juros em resposta à inflação crescente.

Seria um erro exagerar a severidade da “desaceleração da tecnologia” que se seguiu. Apesar das demissões em massa e da receita em declínio, as grandes empresas permaneceram maiores e mais lucrativas do que eram antes da pandemia. No entanto, um certo mal-estar havia se instalado. A indústria precisava de uma nova invenção deslumbrante que pudesse atrair bilhões de consumidores e levar os mercados de capitais a uma espuma de euforia.

Uma candidata era a Web3, uma proposta para reconstruir a internet em torno do blockchain, a tecnologia contábil subjacente ao Bitcoin e outras criptomoedas. Defendida em particular por capitalistas de risco, que esperavam que ela os enriquecesse ao capacitar uma nova geração de startups para destronar as grandes empresas, a Web3 nunca se mostrou útil para nada além da especulação, e até mesmo os especuladores foram prejudicados quando vários esquemas implodiram sob a pressão das altas taxas de juros. Outra possibilidade era o metaverso, o sonho de Mark Zuckerberg de uma internet imersiva vivenciada por meio de um headset. Ele também se esforçou para demonstrar qualquer vantagem prática. Pior, era desagradável: um simulacro cheio de falhas de um shopping pós-apocalíptico como se fosse desenhado por David Lynch, onde avatares de olhos de peixe e sem pernas flutuavam por mundos cartoonizados e escassamente povoados.

Então, em 30 de novembro de 2022, a OpenAI lançou o ChatGPT. Um sistema poderoso emparelhado com uma interface conversacional afável, ele permitia que qualquer pessoa fizesse uma pergunta e obtivesse uma resposta impressionantemente humanoide (embora nem sempre correta). Em janeiro de 2023, o chatbot havia acumulado 100 milhões de usuários, tornando-se a aplicação web de crescimento mais rápido da história. Foi um conto de fadas do Vale do Silício: a OpenAI, que na época tinha apenas algumas centenas de funcionários, pegou todos de surpresa e, virtualmente da noite para o dia, estabeleceu a “IA generativa” — a categoria de software à qual o ChatGPT pertence — como o novo conceito mestre de toda a indústria. Os gigantes da tecnologia se apressaram para responder, desencadeando uma corrida. Tudo, dos buscadores aos clientes de e-mail, passou a incorporar recursos generativos. Em 2023, o Nasdaq subiu 55%, seu melhor desempenho desde 1999. A nova novidade havia sido encontrada.

É cedo demais para saber se a IA generativa se provará um pote de ouro ou um sopro de ar quente. As opiniões estão divididas. Algumas empresas tiveram um desempenho fabuloso: a Nvidia, a estrela em ascensão do boom, está lucrando muito, já que seus chips são a infraestrutura básica na qual a IA generativa é construída. As divisões de nuvem da Microsoft, Google e Amazon também cresceram consideravelmente, crescimento que seus executivos atribuem ao aumento da demanda por serviços de IA.

Mas estas são, na linguagem da imprensa financeira, jogadas de “pás e picaretas” (fornecer as ferramentas básicas para uma corrida do ouro). Ninguém duvida que há dinheiro a ser ganho vendendo para as empresas o parafernalha de que precisam para usar a IA generativa. A verdadeira questão é se a IA generativa ajuda essas empresas a ganharem dinheiro por conta própria. Os céticos apontam que o alto custo de criar e executar software de IA generativa é um obstáculo potencial. Isso nega a vantagem tradicional da tecnologia digital: seus baixos custos marginais. Iniciar uma livraria online funcionou para a Amazon porque era mais barato do que seguir o caminho físico, como Jim Covello, chefe de pesquisa de ações globais da Goldman Sachs, observou em um relatório de junho de 2024. A IA generativa, em contraste, não é barata — o que significa que “as aplicações de IA devem resolver problemas extremamente complexos e importantes para que as empresas obtenham um retorno adequado sobre o investimento”. Covello, por exemplo, duvida que elas o farão.

No entanto, as empresas, como as pessoas, não são totalmente racionais. Quando uma empresa decide adotar uma nova tecnologia, raramente o faz com base apenas em considerações econômicas. “Tais decisões estão quase sempre fundamentadas em pressentimentos, fé, ego, deleite e acordos”, observa o historiador David Noble. Olhando para as fábricas americanas após a Segunda Guerra Mundial, Noble identificou várias razões para sua mudança para a tecnologia de “controle numérico”: uma “fascinação pela automação”, uma devoção à ideia de progresso tecnológico, um desejo de estar associado ao prestígio da vanguarda e um “medo de ficar para trás da concorrência”, entre outros.

Noble, no entanto, dá ênfase especial a uma motivação que está pelo menos parcialmente enraizada na racionalidade econômica: a disciplina do trabalho. Ao mecanizar o processo de produção, os gestores poderiam dominar mais plenamente os trabalhadores dentro dele. O filósofo Matteo Pasquinelli tem uma visão semelhante em seu recente livro The Eye of the Master: A Social History of Artificial Intelligence (O Olho do Mestre: Uma História Social da Inteligência Artificial). Na introdução, Pasquinelli, professor da Universidade Ca’ Foscari de Veneza, explica que não oferecerá uma “história linear de conquistas matemáticas”. Em vez disso, ele quer fornecer uma “genealogia social” que trata a IA não apenas como uma busca tecnológica, mas “como uma visão de mundo”. O ponto central dessa visão é a automação — e dominação — do trabalho. A IA contemporânea é melhor entendida, ele acredita, como o mais recente em uma longa linha de esforços para aumentar o poder do patrão.

Em A Riqueza das Nações, Adam Smith argumentou, de forma célebre, que a fabricação de alfinetes poderia se tornar mais eficiente por meio da divisão do trabalho. Em vez de um único fabricante de alfinetes fazer tudo, o trabalho poderia ser dividido em várias tarefas distintas e distribuído, de modo a produzir os alfinetes mais rapidamente.

Um importante popularizador desse princípio foi Charles Babbage, uma figura central no livro de Pasquinelli. Originalmente um matemático, Babbage tornou-se o que hoje chamaríamos de “formador de pensamentos” entre a burguesia britânica do século XIX. Hoje ele é mais conhecido como um dos inventores do computador. Seu trabalho sobre computação começou com a observação de que a divisão do trabalho poderia ser “aplicada com igual sucesso a operações mentais e mecânicas”, como ele afirmou em um influente tratado de 1832. Babbage acreditava que o mesmo método de gestão industrial que então remodelava o trabalhador britânico poderia ser transportado para fora da fábrica e aplicado a um tipo de trabalho muito diferente: o cálculo matemático.

Ele se inspirou em Gaspard de Prony, um matemático francês que criou um esquema para agilizar a criação de tabelas logarítmicas reduzindo a maior parte do trabalho a uma série de adições e subtrações simples. No arranjo de Prony, um punhado de especialistas e gerentes planejava o trabalho e fazia os cálculos mais difíceis, enquanto um exército de calculadores subalternos fazia muita aritmética básica.

Se os pobres serviçais na base desta pirâmide eram basicamente autômatos, por que não automatizá-los? Na fábrica, a divisão do trabalho andava de mãos dadas com a automação. Na verdade, de acordo com Babbage, foi precisamente a simplificação do processo de trabalho que tornou possível introduzir maquinário. “Quando cada processo foi reduzido ao uso de alguma ferramenta simples”, escreveu ele, “a união de todas essas ferramentas, acionadas por uma única força motriz, constitui uma máquina”.

Em 1819, ele começou a projetar o que chamou de Máquina Diferencial, que automatizava o trabalho aritmético com três cilindros rotativos e era movida a vapor. A ambição de Babbage era enorme. Ele queria “estabelecer o negócio do cálculo em escala industrial”, escreve Pasquinelli, aproveitando a mesma fonte de energia que estava revolucionando a indústria britânica. A produção em massa de tabelas logarítmicas livres de erro também seria um negócio lucrativo, porque tais tabelas permitiam que as formidáveis frotas mercantes e militares do Reino Unido determinassem sua posição no mar. O governo britânico, reconhecendo o valor econômico e geopolítico do empreendimento de Babbage, forneceu financiamento.

O investimento falhou. Babbage conseguiu construir um pequeno protótipo, mas o projeto completo mostrou-se muito complicado de implementar. Em 1842, o governo retirou seu apoio, momento em que Babbage já começara a sonhar com uma máquina ainda menos construível: a Máquina Analítica. Projetada com a ajuda da matemática Ada Lovelace, esse mecanismo extraordinário teria sido o primeiro computador de uso geral, capaz de ser programado para realizar qualquer cálculo. Assim, em meio à fumaça e ao fuligem da Inglaterra vitoriana, nasceu a ideia de software.

A divisão do trabalho nunca foi apenas sobre eficiência; também era sobre controle. Ao fragmentar a produção artesanal— imagine um sapateiro fazendo um par de sapatos — em um conjunto de rotinas modulares, a divisão do trabalho eliminou a autonomia do artesão. Agora a gestão reunia os trabalhadores sob um mesmo teto, o que significava que podiam ser mandados e vigiados enquanto trabalhavam.

Pasquinelli acredita que as máquinas de Babbage, originadas como se originaram em um “projeto para mecanizar a divisão do trabalho mental”, eram movidas pelos mesmos imperativos gerenciais. Elas eram, escreve ele, “uma implementação do olhar analítico do mestre da fábrica”, uma espécie de representação mecânica do patrão vigilante e despótico. Pasquinelli chega a chamá-las de ‘primas’ do notório panóptico de Jeremy Bentham.

Mas esses imperativos presumivelmente permaneceram latentes, uma vez que os aparelhos nunca funcionaram como projetado. Babbage tentou usar engrenagens mecânicas para representar números decimais, o que significou que ele lutou com o problema de como automatizar o “vai-um” — o processo pelo qual uma coluna reinicia para zero e a próxima coluna aumenta em um— quando um dígito atinge 10. Seriam necessárias as simplificações do sistema binário, a invenção da eletrônica e os muitos avanços financiados pelos amplos orçamentos militares da Segunda Guerra Mundial para tornar a computação automática finalmente viável na década de 1940.

Naquela época, o capitalismo havia se internacionalizado, o que tornou a questão de gerenciar os trabalhadores mais complicada. “Quanto mais a divisão do trabalho se estendia para um mundo globalizado”, escreve Pasquinelli, “mais problemática se tornava sua gestão”, já que “a ‘inteligência’ do mestre da fábrica não podia mais inspecionar todo o processo de produção com um único olhar”. Assim, ele argumenta, surgiu a necessidade de “infraestruturas de comunicação” que “pudessem alcançar esse papel de supervisão e quantificação”.

O computador moderno, nas décadas seguintes à sua chegada nos anos 1940, ajudou a satisfazer essa necessidade. Os computadores estenderam o “olho do mestre” através do espaço, argumenta Pasquinelli, permitindo que os capitalistas coordenassem a logística cada vez mais incômoda da produção industrial. Se Babbage tivesse desejado construir uma prótese para projetar o poder gerencial, como sugere Pasquinelli, então o triunfo da computação no século XX, como instrumento indispensável da globalização capitalista, deve ser entendido como a realização do espírito fundador da tecnologia.

Além disso, esse espírito parece ter se intensificado à medida que os computadores continuaram a evoluir. “Desde o final do século XX”, escreve Pasquinelli,

<a gestão do trabalho transformou toda a sociedade em uma “fábrica digital” e assumiu a forma do software dos mecanismos de busca, mapas online, aplicativos de mensagens, redes sociais, plataformas de gig economy, serviços de mobilidade e, em última análise, algoritmos.>


A IA generativa, conclui ele, está acelerando essa transformação.

Não há dúvida de que os computadores são frequentemente usados em benefício dos empregadores, desde o software de escalas que reduz os custos trabalhistas sobrecarregando funcionários de varejo e restaurantes com horários imprevisíveis até as várias espécies de “software de patrão” que permitem a vigilância e supervisão remota de funcionários de escritório, motoristas da Uber e caminhoneiros de longa distância. Mas argumentar que tais usos são a razão de ser da tecnologia digital, como Pasquinelli parece fazer, é exagerar o caso.

A disciplina do trabalho é um uso ao qual os computadores podem ser aplicados; há muitos outros. E isso não foi central para o desenvolvimento da tecnologia: as inovações centrais da computação surgiram em resposta a prerrogativas militares, não econômicas. Os desejos de decifrar a criptografia inimiga, calcular os ângulos corretos para mirar a artilharia e realizar a matemática necessária para fazer a bomba de hidrogênio foram algumas das motivações para construir computadores nos anos 1940. O governo dos EUA se apaixonou pela tecnologia e gastou milhões em pesquisa e aquisição nas décadas subsequentes. Os computadores provariam ser integrantes de uma variedade de empreendimentos imperiais, desde montar mísseis intercontinentais capazes de (precisamente) incinerar milhões de soviéticos até armazenar e analisar interceptações provenientes de estações de escuta em todo o mundo. As corporações americanas seguiram atrás, adaptando as engenhocas de segurança criadas pelo Estado para vários fins comerciais.

Ainda assim, se as alegações de Pasquinelli nem sempre convencem, há muito a aprender com o material que ele apresenta. As editoras inundaram os leitores com livros sobre IA nos últimos anos — o suficiente para encher uma pequena livraria. A maioria parecem ainda cruas. The Eye of the Master está, se é que podemos dizer, ‘cozido demais’: há uma quantidade enorme de pensamento comprimida em suas páginas. O intelecto onívoro de Pasquinelli frequentemente hipnotiza. Ainda assim, às vezes eu me pegava desejando que ele desacelerasse, estruturando suas provocações com mais evidências.

O fato de Babbage ter se inspirado no manual da gestão industrial ao projetar seus protocomputadores é um episódio histórico interessante. Mas sua relevância para desenvolvimentos posteriores, ou mesmo apenas sua ressonância com eles, só pode ser determinada ao se observar de perto como os computadores realmente transformaram o trabalho nos séculos XX e XXI, o que Pasquinelli não faz. Em vez disso, ele dá uma guinada brusca no meio do livro, passando da Grã-Bretanha industrial do século XIX para os primeiros pesquisadores da América do século XX, concentrando-se em particular na escola ‘conexista’ do campo.

O conexionismo, como observa Pasquinelli, divergiu de formas significativas da computação automática de Babbage. Para Babbage, a alma do computador era o algoritmo, um procedimento passo a passo que tradicionalmente compõe o ingrediente principal de um programa de computador. Quando Alan Turing, John von Neumann e outros criaram o computador moderno no século XX, o que criaram foi um dispositivo para executar algoritmos. O programador escreve um conjunto de regras para transformar uma entrada em uma saída, e o computador obedece.

Esse ethos também orientou o ‘simbolismo’, a filosofia que passou a dominar a primeira geração de pesquisas. Seus adeptos acreditavam que, programando um computador para seguir uma série de regras, poderiam transformar uma máquina em uma mente. Esse método tinha seus limites. Formalizar uma atividade como uma sequência lógica funciona bem se a atividade for relativamente simples. No entanto, à medida que se torna mais complexa, instruções codificadas rigidamente se tornam menos úteis. Eu poderia fornecer um conjunto exato de instruções para ir da minha casa à sua, mas não poderia usar a mesma técnica para explicar como dirigir.

Uma abordagem alternativa emergiu da cibernética, um movimento intelectual do pós-guerra com interesses extremamente ecléticos. Entre eles estava a aspiração de criar autômatos com a adaptabilidade dos seres vivos. “Em vez de imitar as regras do raciocínio humano”, escreve Pasquinelli, os cibernéticos “visavam imitar as regras pelas quais os organismos se organizam e se adaptam ao ambiente”. Esses esforços levaram à invenção da rede neural artificial, uma arquitetura de processamento de dados vagamente modelada no cérebro. Ao usar essas redes para perceber padrões nos dados, os computadores podem treinar-se em uma tarefa específica. Uma rede neural aprende a fazer coisas não simplificando um processo em um procedimento, mas observando um processo — de novo e de novo e de novo — e extraindo relações estatísticas entre os muitos exemplos.

Um dos progenitores do conexionismo foi Friedrich Hayek, o assunto do capítulo mais intrigante de Pasquinelli. Hayek é mais conhecido como um dos principais teóricos do neoliberalismo, mas quando jovem desenvolveu um interesse pelo cérebro enquanto trabalhava no laboratório de Zurique do famoso neuropatologista Constantin von Monakow. Para Hayek, a mente era como um mercado: ele via ambos como entidades auto-organizadoras das quais uma ordem espontânea surge através da interação descentralizada de seus componentes. Essas ideias ajudariam a influenciar o desenvolvimento de redes neurais artificiais, que de fato funcionam muito como a mente de mercado da imaginação hayekiana. Quando um psicólogo chamado Frank Rosenblatt implementou a primeira rede neural com o apoio de uma bolsa da Marinha em 1957, ele reconheceu sua dívida para com Hayek.

Mas Hayek também divergiu dos cibernéticos em aspectos importantes. A cibernética, como o filósofo Norbert Wiener a definiu em seu livro homônimo de 1948, envolvia o estudo científico do “controle e comunicação no animal e na máquina”. O termo, cunhado por Wiener, foi derivado da palavra grega antiga para o timoneiro de um navio, que compartilha a mesma raiz que a palavra para governo. Os cibernéticos queriam criar sistemas tecnológicos que pudessem se governar — uma perspectiva que agradava ao Pentágono, que procurava maneiras de obter uma vantagem militar na Guerra Fria. A Marinha financiou Rosenblatt na esperança de que sua rede neural pudesse auxiliar na “automação da classificação de alvos”, explica Pasquinelli, usando seus poderes de reconhecimento de padrões para detectar embarcações inimigas.

Para Hayek, em contraste, o conexionismo oferecia uma maneira de pensar sobre um sistema que escapava ao controle. Ele tinha um tipo especial de controle em mente: o planejamento econômico. Em sua visão, a complexidade semelhante à do cérebro e a arquitetura distribuída do mercado significavam que o socialismo nunca poderia funcionar. Daí a necessidade de políticas neoliberais que, nas palavras do historiador Quinn Slobodian, “encapsulariam a economia incognoscível”, protegendo-a da interferência do governo. No entanto, Hayek e os outros conexionistas estavam muito no mesmo time. Rosenblatt e seus colegas conseguiram garantir financiamento para sua pesquisa porque o governo dos EUA acreditava que suas ideias poderiam ajudar a derrotar exércitos socialistas. Hayek estava no negócio de derrotar ideias socialistas.

A princípio, o conexismo não conseguiu cumprir sua promessa. No início da década de 1970, havia caído em desuso no mundo. Ainda assim, redes neurais continuaram a se desenvolver silenciosamente nas décadas seguintes, alcançando alguns avanços importantes nos anos 1980 e 1990. Então, na década de 2010, ocorreu o salto quântico do conexismo.


Treinar uma rede neural, como Rosenblatt certa vez observou, requer “exposição a uma grande amostra de estímulos”. O tamanho importa: como as redes neurais aprendem estudando dados, o quanto podem aprender depende, em parte, da quantidade de dados disponíveis. Durante grande parte da história da computação, os dados eram caros de armazenar e difíceis de transmitir. Na segunda década do século XXI, ambas as barreiras haviam desaparecido. A queda vertiginosa nos custos de armazenamento, combinada com o nascimento e crescimento da Web, significava que uma montanha de palavras, fotos e vídeos estava acessível a qualquer pessoa com conexão à Internet. Pesquisadores usaram essas informações para treinar redes neurais. A abundância de dados de treinamento, junto a novas técnicas e hardware mais potente, levou a avanços rápidos em áreas como processamento de linguagem natural e visão computacional. Hoje, baseado em redes neurais, está em toda parte, atuando em tudo, desde a Siri até carros autônomos e algoritmos que selecionam o conteúdo das redes sociais.

As redes neurais também sustentam sistemas generativos como o ChatGPT. Tais sistemas são particularmente grandes — significando que são compostos por muitas camadas de redes neurais — e seu apetite por dados é imenso. A razão pela qual o ChatGPT soa tão realista e parece saber tantas coisas sobre o mundo é que o “modelo de linguagem grande” dentro dele foi treinado em terabytes de texto extraídos da Internet, incluindo milhões de sites, artigos da Wikipedia e livros completos. Isto é o que Pasquinelli quer dizer quando escreve que as redes neurais da IA contemporânea são “não um modelo do cérebro biológico, mas da mente coletiva”, um empreendimento social ao qual muitas pessoas contribuíram.

Nem todos estão satisfeitos com este fato. A voracidade da IA generativa é responsável pelo que o apresentador de podcast Michael Barbaro chama de seu “pecado original”: material com direitos autorais está entre a informação ingerida. O New York Times processou a OpenAI por violação de direitos autorais; assim como a Authors Guild, ao lado de Jonathan Franzen, George Saunders e vários outros escritores. Embora a OpenAI e os outros principais “criadores de modelo” não divulguem os detalhes de seus dados de treinamento, a OpenAI admitiu que obras protegidas por direitos autorais estão incluídas — mas mantém que isso se enquadra no uso justo (fair use). Enquanto isso, a demanda por dados de treinamento continua crescendo, compelindo as empresas de tecnologia a encontrar novas maneiras de obtê-los. OpenAI, Meta e outras firmaram acordos de licenciamento com editoras como Reuters, Axel Springer e Associated Press, e estão explorando arranjos semelhantes com estúdios de Hollywood.

Para Pasquinelli, há uma lição aqui. A dependência do contemporâneo de nossas contribuições agregadas prova que a inteligência é um “processo social por constituição”. Ela é comunitária, emergente, difusa — e, portanto, combina perfeitamente com o paradigma conexista. “Não é surpresa que a técnica mais bem-sucedida, ou seja, as redes neurais artificiais, seja aquela que melhor consegue espelhar e, portanto, capturar a cooperação social”, escreve ele.

Há uma coloração marxista neste argumento: a inteligência reside na criatividade das massas. Mas também é um argumento que poderia ter sido feito pelo profundamente anti-marxista Hayek. O velho austríaco ficaria gratificado em saber que o “intelecto” do software mais sofisticado da história é originado das atividades não planejadas de uma multidão. Ele teria se divertido ainda mais com o fato de que tal software é, assim como seu amado mercado, fundamentalmente incognoscível.

A estranheza no cerne do boom generativo é que ninguém realmente sabe como a tecnologia funciona. Sabemos como os grandes modelos de linguagem dentro do ChatGPT e seus equivalentes são treinados, mesmo que nem sempre saibamos em quais dados eles estão sendo treinados: pede-se a eles que prevejam a próxima sequência de caracteres em uma sequência. Mas exatamente como eles chegam a qualquer previsão específica é um mistério. Os cálculos que ocorrem dentro do modelo são simplesmente muito intrincados para qualquer humano compreender. Você não pode simplesmente abrir o capô e observar as engrenagens se movendo.

Na ausência de observação direta, resta um método mais oblíquo: a interpretação. Todo um campo técnico surgiu em torno da “interpretabilidade” ou “explicabilidade”, com o objetivo de decifrar como tais sistemas funcionam. Seus praticantes na academia e na indústria falam em termos cientificistas, mas seu esforço tem uma qualidade devocional, não diferente da exegese de textos sagrados ou das entranhas de ovelhas recém-sacrificadas.

Há um limite para quanto significado pode ser produzido. Os mortais devem contentar-se com verdades parciais. Se os “monopólios de IA” de hoje representam “o novo ‘olho do mestre’”, como Pasquinelli acredita, é um olho com um campo de visão limitado. As fábricas dos dias de Babbage eram zonas de visibilidade: ao concentrar o trabalho e os trabalhadores, elas colocavam o processo de trabalho plenamente à vista. A IA contemporânea é o oposto. Seu invólucro é teimosamente opaco. Nem mesmo o mestre pode ver dentro.

Outras Palavras é feito por muitas mãos. Se você valoriza nossa produção, seja nosso apoiador e fortaleça o jornalismo crítico: apoia.se/outraspalavras

Leia Também:

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *