A Educação na encruzilhada dos chatbots

Uso de IA na produção escolar e acadêmica alastra-se. Mas a mecanização de tarefas, sem um rigor crítico, mina o próprio o próprio ato de perguntar – e, logo, de refletir sobre respostas. Além de um ciclo sem fim de responsabilidades transferidas aos usuários

Imagem: Getty Images
.

Por Eleonora Albano, no A Terra é Redonda

Os ataques do capitalismo ao pensamento crítico afetam diretamente o futuro da universidade. Vêm ocorrendo, pelo menos, desde a financeirização do tripé ensino-pesquisa-extensão – o qual as Big Techs recentemente usurparam, se auto erigindo em “mecenas”.

Este artigo focaliza a forma desse mecenato que disponibiliza na internet os chamados robôs conversacionais ou ‘chatbots’.

A tecnociência atribui inteligência a esses robôs afirmando-os capazes de preparar cursos de quaisquer níveis e acelerar pesquisas, automatizando a resenha bibliográfica e reduzindo o tempo de coleta e tratamento de dados.

Demonstra-se aqui que a pertinência dessas alegações depende inteiramente da formação crítica dos/as usuários/as dos chatbots.

É imprescindível que saibam que esses apenas reeditam “raciocínios” de alta frequência na internet. É preciso também que entendam que isso se faz através de uma simulação simplista da máquina de Turing – que prevê o próximo símbolo numa sequência contínua e exaustivamente interconectada – a qual nada cria de fato.

Assim, a sua popularização acrítica e indiscriminada pode vir a minar tradições educacionais cuja eficácia repousa sobre séculos de exercício do pensamento crítico.

Este artigo discute as ferramentas oferecidas pelas Big Techs aos estudantes e educadores, com foco na atribuição de inteligência à mais popular delas, a saber, os Grandes Modelos de Linguagem (doravante, GMLs, como no inglês LLMs – large language models, cujo exemplo mais conhecido é o ChatGPT). Para tanto, retoma e estende os argumentos contra tais alegações publicados no site A Terra é Redonda em dezembro de 2023.

Os passos envolvidos são seis.

Primeiro discuto, à luz de análises das ciências sociais, as incessantes transformações do capitalismo desde a financeirização. Certos autores contemporâneos, como, p.ex., Tsoukalis,[i] sustentam que o termo neoliberalismo está perdendo o sentido, dada a multiplicação das formas atuais de obtenção do lucro.

Meu foco será, entretanto, comportamental, ou seja, tentarei compreender o desconforto, a angústia e a insegurança suscitadas por essa mudança incessante do sistema de produção.

Em seguida, passo a examinar as consequências nefastas dessa situação para o exercício da crítica, apontando certas ameaças que já pairam sobre ela.

Sigo mostrando como a apropriação irrestrita de conteúdo da internet pelas Big Techs lhes abriu caminho para se auto erigir em mecenas da educação, prometendo municiar docentes, discentes e pesquisadores com uma variedade de ferramentas.

Na sequência, analiso a mais importante delas, a saber, a tecnologia linguageira dos assistentes pessoais (tais como a Alexa, da Amazon, ou o Copilot, da Microsoft). Primeiro, mostro que a simulação do tom cortês e discreto de uma secretária padrão incita toda sorte de fantasias acerca das capacidades cognitivas – e até socioafetivas – das máquinas redatoras/leitoras (ou falantes/ouvintes[ii]). Mostro, a seguir, como tais fantasias afetam e desestabilizam o cotidiano das pessoas e instituições envolvidas.

A primeira fantasia é a da senciência da máquina, isto é, a crença na sua capacidade de experimentar sensações e sentimentos, assim como de tomar consciência deles.

Outra fantasia ressuscita o mito milenar dos oráculos de pedra, tidos na Antiguidade como animados, sencientes e inteligentes. A sua versão corrente prega que a emulação dos raciocínios humanos pela máquina alcança uma homologia perfeita. Demonstrarei a falsidade dessa presunção explicando passo a passo a arquitetura behaviorista, baseada no condicionamento operante, dos GMLs por trás os chatbots.

Segue uma demonstração de que os sentidos “novos” criados pelos robôs linguageiros não o são de fato, pois se assentam exclusivamente sobre analogias encontráveis, por meio de sofisticadas funções estatísticas, no gigantesco corpus constituído pela internet.

A crítica, por exigir o exercício constante da dúvida, não cabe nesse limite. O fato de a rapidez e eficiência dos mecanismos de busca permitirem à máquina dar respostas aceitáveis, muito boas ou até excelentes não lhe permite, entretanto, fazer boas perguntas. Assim, as perguntas permanecem da inteira responsabilidade do usuário.

Por fim, aponto algumas armadilhas sob essas ferramentas que podem desorientar os usuários desejosos de aproveitá-las para acelerar e mecanizar tarefas acadêmicas tais como preparar aulas, resenhar textos e organizar dados de pesquisa.

Concluo, então, que se trata de recursos muito úteis – mas somente para quem saiba submetê-los a um rigoroso escrutínio crítico.

As vertiginosas transformações do capitalismo

Desde a financeirização, o capitalismo vem criando novas formas de obtenção de lucro que vão muito além da espoliação do trabalhador. Com o advento e a popularização da internet, o consumidor passou a trabalhar de graça para os proprietários das plataformas, pois, ao usá-las, cria automaticamente um perfil das suas relações sociais e hábitos de consumo, a ser vendido, sem a sua anuência, aos anunciantes interessados. Conforme apontou Shoshana Zuboff,[iii] esse monitoramento contínuo viola a privacidade do usuário, estando, na verdade, a serviço de um poderoso esquema de vigilância.

Atualmente, esse comércio de dados não se limita aos cliques dos internautas. Há empresas que, não dispondo de recursos para criar e manter espaços na internet, guardam os seus bancos de dados nas nuvens controladas pelas Big Techs. Essa mudança radical, que destruiu os mercados, transferindo-os à chamada “computação em nuvem”, é aptamente denominada por Yanis Varoufakis “tecnofeudalismo”.[iv]

O tecnofeudalismo explora consumidores e capitalistas espoliando um exército de trabalhadores precarizados e terceirizados que classificam e etiquetam dados numa estrutura hierárquica só viabilizada por máquinas gigantescas.

Trata-se de uma mão de obra altamente qualificada e especializada. Alguns/umas são cientistas exatos que colaboram na produção da estrutura algorítmica da rede. Outros/as são cientistas naturais e humanos que esquadrinham os conteúdos postados e produzem uma grade classificatória complexa e hierarquizada para guiar não só os mecanismos de busca, mas também os grandes modelos de linguagem – cujas aplicações, em contínua expansão, vêm, cada vez mais, seduzindo e controlando os usuários/as.

A pensadora feminista Nancy Fraser[v] cunhou o termo ‘capitalismo canibal’ para designar essa forma de prestação de serviços, que vem tragando um número cada vez maior de indivíduos e instituições. Congruentemente, o jornalista e analista político Raul Zibechi[vi] propôs o termo ‘capitalismo mafioso’ para o caso em que essa garganta voraz tem ligações com a corrupção, o narcotráfico e o crime organizado em geral.

Reflitamos agora sobre os efeitos dos abusos desse poder anônimo sobre as nossas mentes e corpos. Corpos cansados do uso incessante de telas, teclados e mouses voltam as respectivas mentes para conexões virtuais totalmente destituídas dos estímulos vocais, gestuais e táteis que dão coesão e coerência ao convívio físico. Açodados por essa rotina, acabam por naturalizar a inescapável privação de contato socioafetivo.

No caso daqueles que tiram o sustento dessas atividades, há ainda o desencanto com a precariedade do mercado de trabalho e a preocupação com o número de horas necessárias a amealhar uma renda básica. O resultado é a multiplicação dos casos de estresse crônico – para os quais a psiquiatria, sem reconhecer a complexidade do fenômeno, propõe o termo ‘burnout’, tratando-os com medicação.

Nesse cenário, a sociedade dita “do conhecimento” melhor se diria ao contrário, ou seja, “do desconhecimento”. Ao invés de fomentar o esclarecimento prometido pelas suas pretensões iluministas, inunda amiúde o público com os saberes especializados que fabrica, difunde e dissipa ao sabor da moda. A explosão vocabular resultante contribui para aumentar ainda mais a confusão.

Outras ameaças à saúde mental da população residem na incessante propaganda enganosa sobre as vantagens da riqueza, do luxo e da ostentação. Ultimamente, pessoas de baixíssima renda têm arriscado o pouco que têm na febre das apostas online. A imersão na mecânica disruptiva e repetitiva nas redes sociais priva-as dos raciocínios mais elementares e da mais singela empatia para com o próximo. Pouco a pouco, o embrutecimento se apropria de mentes e corações com força irrefreável.

O declínio da critica

O quadro acima certamente não é a causa, mas a consequência do entorpecimento paulatino da crítica. A causa é mais remota: jaz em décadas de ataques, abertos ou encobertos, das sucessivas versões do capitalismo às instituições guardiãs do pensamento crítico.

Em cerca de cinco décadas, a financeirização ditada pelo neoliberalismo fragilizou o ensino público no mundo inteiro.[vii] Escolas de todos os níveis tiveram que buscar parcerias e/ou patrocínios para evitar a cobrança de mensalidades – ou ao menos manter os seus valores viáveis. As que conseguiram preservar as ofertas curriculares gratuitas multiplicaram os cursos de extensão e especialização pagos e ampliaram a oferta de atividades extracurriculares igualmente pagas.

Coniventes, os governos remuneram os professores muito mal, levando-os a assumir mais de um emprego para sobreviver. Isso compromete não só a sua disposição física, mas também a sua dedicação à formação continuada.

Por outro lado, as escolas privadas vendem às famílias belas promessas, seja de profissionalização e inserção no mercado de trabalho, seja de formação enciclopédica e/ou multidisciplinar que prepare para um mundo em constante mutação. A meta do aprendizado não é, em geral, refletir sobre a realidade e sim agir sobre ela.

Último reduto do pensamento crítico, a universidade pública aplaca o seu subfinanciamento abrindo flancos à privatização. A pós-graduação e a especialização cada vez mais se fundem e a pesquisa básica cede terreno à pesquisa aplicada de encomenda.

Naturalizar essa situação é negar que a liberdade de pensamento deve ser independente de qualquer patrocínio privado. Numa democracia, faz-se necessário preservar a autonomia dos pesquisadores. Assim, o trabalho sobre as questões postas pela trajetória de cada campo do saber deve ser financiado por fontes públicas.

A privatização pelas bordas tornou as escolas – mesmo as públicas – vulneráveis aos critérios de eficiência do mundo empresarial. Isso não raro as leva a contratar empresas de gestão de ativos, para controlar seus bens físicos e simbólicos, a fim de “otimizar” o seu uso, desempenho e valor. Dentre os ativos geridos, estão os dados de todos os atores envolvidos. E, assim, a educação mergulha, incauta, numa das práticas mais agressivas do capitalismo atual. O pressuposto é de que qualquer bem físico ou informacional é vendável, podendo, portanto, ser posto a serviço do lucro.

O mito milenar do robô inteligente

Muito antes dos autômatos que divertiam a realeza e a aristocracia europeias nos idos do iluminismo, já havia lendas sobre máquinas inteligentes, capazes de obedecer aos seus senhores. Na Odisseia, Homero relata que o deus da metalurgia e do artesanato, Hefesto, e suas assistentes douradas usavam foles para realizar tarefas mecânicas repetitivas. Menciona, ainda, que os fenícios possuíam navios que obedeciam às ordens dos seus capitães e se moviam à velocidade do pensamento para se esquivar dos perigos da navegação.

As pessoas, animais e seres míticos artificiais permaneceram populares durante toda a Antiguidade, a Idade Média e a Idade Moderna. Tais criaturas de vidro, argila ou metal eram, em geral, vistas como escravas ou serviçais, voltadas a atender as mais diversas necessidades, inclusive o sexo.

Não se tratava de mera imaginação: os helênicos possuíam tecnologia mecânica avançada, que permitia a construção de autômatos movidos a molas, cordas e/ou alavancas. Essa arte se conservou parcialmente na Europa medieval e se espalhou pelo mundo, tendo alcançado primeiro o Islã e, depois, seguido para o oriente.

As culturas orientais também conceberam autômatos guardiões, encarregados de palácios ou relicários, como o do Buda.

Tais mecanismos eram poderosos instrumentos de controle social. Visavam a suscitar, ao mesmo tempo, fascínio e pavor. Paralelamente, as bonecas cortesãs, dando suporte físico a fantasias masturbatórias, alimentavam a crença numa suposta “alma” das máquinas.

Tais fantasias foram também popularizadas pela literatura. Por exemplo, em As Viagens de Gulliver, Jonathan Swift descreve o Engenho, uma máquina que constituía “um projeto de melhorar o conhecimento especulativo através de operações práticas e mecânicas”. Ao arrendá-la a preços módicos, “qualquer pessoa ignorante, com um mínimo de estudo e sem mentor”, não mobilizava mais que o braço “para escrever livros de filosofia, poesia, política, direito, matemática e teologia”.

O efeito Eliza banalizado

A descoberta de que os humanos facilmente transferem afetos às máquinas coube a Joseph Weizenbaum[viii], judeu alemão de família emigrada para a América no início da ascensão do nazismo. Os traumas da perseguição e as dificuldades de adaptação ao novo ambiente não inibiram o seu excepcional talento para a matemática e a computação. Apesar da falta de apoio da família, fez uma carreira acadêmica brilhante, que o levou a ocupar o lugar de professor do MIT.

É conhecido como um dos pais da inteligência artificial, embora tenha rechaçado essa alcunha, pois acreditava que as máquinas só são capazes de calcular, não de raciocinar.

Por tê-lo ajudado a superar os traumas do passado, a psicanálise influenciou decisivamente a sua trajetória. Paralelamente, a sua adesão ao socialismo levou-o a explorar a possibilidade de democratização da psicoterapia por meio digital. Para tanto, estudou as correntes disponíveis e montou um ousado experimento com a mais fácil de emular computacionalmente, a saber: a rogeriana, assim batizada em honra do seu inventor, o psicólogo estadunidense Carl Rogers.

Trata-se de uma psicoterapia não-diretiva, que Carl Rogers definia como ‘centrada na pessoa’. Consiste, essencialmente, em inserir o enunciado do paciente em frases tais como “você me disse que…”, seguidas de outros clichês, vagos, porém alentadores, tais como: “E como podemos lidar com isso?”. É, no fundo, uma aposta no poder terapêutico do desabafo.

Apesar de ter sido concebida por Joseph Weizenbaum como ferramenta de pesquisa sobre a viabilidade de um robô conversacional, Eliza logo tornou-se um surpreendente sucesso de público, o que acabou por afetar o design do estudo. A razão é que os/as participantes alegavam que as suas conversas com a máquina eram privadas e se recusavam a compartilhar o seu o teor com o pesquisador.

Obviamente, Joseph Weizenbaum estava convicto da impossibilidade de Eliza ser animada ou inteligente. Compreendeu, então, que o apego dos participantes à terapeuta digital era uma forma de transferência, no sentido psicanalítico.

Ocorre que, nas décadas de 1960/70, o lobby dos interessados em informatizar e automatizar a sociedade já era forte nos EUA e instigava o envolvimento afetivo dos usuários com as máquinas. Joseph Weizenbaum opôs-se a essa campanha escrevendo livros e artigos em que esquadrinhava a diferença entre os raciocínios humanos e a computação simbólica.

Mas logo colheu o amargo fruto de uma rejeição violenta, liderada pelos seus próprios colegas do MIT, especialmente John McCarthy, hoje lembrado como o pai da Inteligência Artificial. O termo, aliás, fora cunhado por ele como jogada de marketing para atrair financiamento do Departamento de Defesa dos EUA para um simpósio que organizou no Dartmouth College em 1956. Obviamente, os militares se encantaram com a promessa tácita de vigilância digital.

O mal-estar foi tamanho que Joseph Weizenbaum preferiu voltar para a Alemanha e continuar o trabalho com os seus interlocutores de lá – todos jovens, críticos e entusiasmados.

No entanto, naquele tempo, o poder econômico estadunidense estava se voltando cada vez mais para a internet como lugar de controle e manipulação do comportamento. Assim, utilizava todos os espaços disponíveis para popularizar a ideia de que os computadores eram capazes de pensar. Decisivas para o sucesso dessa propaganda foram as derrotas que os sucessivos robôs jogadores impuseram a renomados campeões mundiais de xadrez.

Assim, o advento dos GMLs foi a gota que faltava para o efeito Eliza inundar a internet, estimulando o apego dos usuários aos seus computadores pessoais. O seu desempenho conversacional é tão bom que leva o leigo a identificar a sua saída à linguagem natural. É difícil, para a maioria, acreditar que se trata apenas de um cálculo lógico-simbólico que nada tem a ver com a estrutura e função das línguas humanas.

Vejamos abaixo como esse engodo funciona.

A mecânica behaviorista dos Grandes Modelos de Linguagem

A enorme capacidade de concatenação de palavras exibida pelos Grandes Modelos de Linguagem tem três componentes: (i) a apropriação do conteúdo inteiro da internet pelas Big Techs; (ii) o advento de um tipo de rede neural recorrente capaz de calcular múltiplas associações entre palavras em tempo real – os chamados transformers, ou seja, transformadores; e (iii) o incessante esforço organizador de legiões de trabalhadores precarizados, mas altamente qualificados, das várias áreas do saber.

Note-se que as línguas naturais humanas contêm descontinuidades sintáticas importantes, por exemplo, nas orações relativas. A frase como “O sapo que comeu o inseto morreu” versa sobre a morte do sapo, e não do inseto. Isso ocorre também na morfologia, em verbos como ‘enraizar’, que se formam acrescentando ao radical um prefixo e um sufixo.

A operação dos Grandes Modelos de Linguagem é, no entanto, puramente linear, i.e., consiste sempre em prever a próxima palavra. Como se abordam, então, essas descontinuidades? A resposta é simples: através de um sofisticado cálculo de probabilidades. O transformador obtém em tempo real as probabilidades de coocorrência entre os pares de palavras de toda a base de dados da internet, escolhe a melhor aposta, e segue em frente.

Cabe, portanto, perguntar como operações tão simples podem compor sequências que façam sentido para o/a leitor/a.

É que a simplicidade é apenas aparente. As probabilidades de coocorrência não se calculam apenas para o vocabulário. O corpus é anotado em vários níveis de análise, que incluem informações sintáticas, semânticas e até pragmáticas. Uma função de otimização seleciona o conjunto de pares com as maiores chances de integrar coerentemente todos esses aspectos.

Os anotadores linguistas etiquetam as propriedades estruturais do texto: regras de conjunção e disjunção – ou seja, a sintaxe –; significados básicos e associativos – ou seja, a semântica –; e referência ao próprio texto e/ou ao contexto, como no caso dos pronomes pessoais e advérbios de lugar e tempo – ou seja, a pragmática.

Os anotadores das demais ciências humanas e sociais adicionam múltiplas camadas de etiquetas conteudistas e estilísticas. Da mesma forma, os anotadores das ciências naturais e exatas adicionam conteúdo etiquetado das suas áreas. Ao final, cientistas da computação familiarizados com os transformadores introduzem no feedforward da rede a hierarquia de níveis de análise resultante.

É imprescindível notar que o funcionamento dos transformadores é comparável à forma mais radical de behaviorismo, o condicionamento operante.[ix]. As combinações com a maior probabilidade de êxito são reforçadas, tornando-se mais prováveis sempre que selecionadas – o que fortalece as demais conexões envolvidas e afeta a seleção do próximo par. Esse procedimento gera novos exemplos de pares da mesma classe, contribuindo para ampliar a sua frequência na rede.

Não há dúvida de que esse é um excelente método de simulação computacional da linguagem natural. Contudo, confundir a saída do transformador com enunciados naturais é atribuir aos humanos uma mente que funciona através de uma sucessão de associações continuamente quantificadas e recalculadas.

A propósito, nas décadas de 1930/40, Burrhus F. Skinner, o pai do condicionamento operante, reagia às acusações de fascismo dos colegas dizendo que o seu método de controle do comportamento tinha por único objetivo formar cidadãos melhores. A discussão alcançou o New York Times, onde, aliás, está disponível uma versão online de uma reportagem de 1972 do jornalista Robert Reinhold[x] sobre um simpósio ocorrido em Yale, no qual as ideias skinnerianas foram condenadas pela maioria da comunidade acadêmica da Psicologia.

Skinner fracassou nos seus projetos educacionais, mas foi resgatado pelas Big Techs para aproximar os humanos das máquinas. Hoje, infelizmente, o uso indiscriminado do algoritmo que implementa o condicionamento operante já está afetando o comportamento dos usuários. As pessoas imitam cada vez mais os chatbots, abusando de clichês. Da mesma forma, aceitam acriticamente os clichês recebidos em resposta às perguntas que lhes fazem.

Em suma, os transformadores não produzem conhecimento novo, pois não conseguem mais que emular, com um pastiche, a forma superficial de um raciocínio simples. Assim, só funcionam como mecanismos de pesquisa quando o objetivo é compilar a informação de fontes confiáveis de internet sobre determinado assunto. Como se sabe, alguns raros sites contam com moderação e/ou curadoria de especialistas.

Em contrapartida, às Big Techs só interessa, hoje em dia, contratar anotadores, não moderadores. Tudo que sai de um transformador realimenta o corpus de entrada. Recentemente, os poucos humanos que filtravam e descartavam respostas inexatas ou falsas dos chatbots foram dispensados pelo X e pela Meta. A Microsoft ainda mantém alguns filtros, mas não revela os detalhes da sua operação. Assim, à medida que a moderação se torna cada vez mais precária e opaca, os erros factuais se acumulam – e a rede se inunda de incorreções, mentiras e contradições.

Além disso, as perguntas e comentários dos usuários, por mais ingênuos, sectários ou ofensivos que possam parecer, incorporam-se automaticamente à base de dados, tornando-a uma fonte inesgotável de vieses potencialmente perigosos. O verdadeiro cede lugar ao falso ou convive com ele, ante a falta de pistas para distingui-los.

Dessa forma, o tom cordial e didático dos chatbots seduz e enreda o usuário, e vai minando aos poucos a sua capacidade de reconhecer os fatores envolvidos na própria pergunta e avaliar ou duvidar da resposta. É fácil se acomodar a um mecanismo que fornece respostas imediatas e aparentemente diretas porque fáceis de repetir.

Essa facilidade, não obstante, tem um lado temerário. Joseph Weizembaum certamente teria se deprimido se estivesse entre nós em 2023, quando um pai de família belga protestou contra o colapso ambiental cometendo suicídio com o apoio de uma versão de Eliza implementada pela Eleuther AI com base no ChatGPT. Segundo a esposa, ele recorrera ao chatbot para tratar uma depressão.

Um saldo perigoso – a transferência de responsabilidade aos usuários

Voltemos agora à questão da qualidade de vida dos docentes sobrecarregados, que, aliás, são maioria, inclusive no ensino superior.

Na universidade, os chatbots estão invadindo a administração, com consequentes cortes nos serviços presenciais de atendimento ao público. Há também experimentos de customização de robôs para uso acadêmico. Mesmo neste caso, em que o conteúdo está sujeito a filtros, a moderação não é satisfatória, devido à arquitetura feedforward dos transformadores.

Assim, os serviços de busca, compilação e organização de textos disponibilizados pelas Big Techs aos trabalhadores da educação básica e superior nada fazem senão aumentar a sua confusão e desconforto.

As apostilas compiladas com esses recursos tendem a contaminar o ensino com obviedades e desinformação, pois não suscitam reflexão, só reprodução acrítica. O plágio, já tão disseminado na internet, adquire agora uma nova modalidade: o pastiche cego, indiscriminado, sem critérios de seleção.

Numa era em que o livro impresso tende a desaparecer, os chatbots ameaçam jogar uma pá de cal numa tradição educacional cujas raízes remontam à Antiguidade.

Que futuro terão as bases milenares do pensamento crítico? Só saberemos identificando e analisando detidamente os efeitos – em especial, os menos transparentes – das tecnologias linguageiras sobre todos os setores da sociedade que impactam a educação formal e informal. Para os estudiosos desse horizonte obscuro, há ainda uma miríade de questões a clarificar.

*Eleonora Albano, docente aposentada do Instituto de Estudos da Linguagem da Unicamp, é psicóloga, linguista, ensaísta; coordenou o primeiro projeto brasileiro sobre tecnologia de fala.


Notas

[i] Veja aqui.

[ii] Como mostrei no primeiro artigo citado, é possível dar vozes personalizadas aos assistentes 

[iii] Shoshana Zuboff. Big other: surveillance capitalism and the prospects of an information civilization. Journal of Information Technology, 30, 75–89, 2015.

[iv] Yanis Varoufakis. Technofeudalism: What klled capitalism. Londres: Vintage Books, 2023.

[v] Nancy Fraser.Capitalismo canibal. São Paulo: Autonomia Literária, 2024.

[vi] Veja aqui.

[vii] Analisei essa situação em artigo publicado no site A Terra é Redonda.

[viii] Joseph Weizembaum. Computer Power and Human Reason: From Judgment to Calculation. New York: W. F. Freeman & Co, 1976.

[ix] Skinner, B. F. (1938). The Behavior of Organisms: An experimental Analysis. New York: Appleton-Century-Crofts.

[x] Veja aqui.

Leia Também: