Para qual futuro os humanos e IAs caminharão?

A inteligência humana é única ou uma construção, como a das IAs? Que é “ser” e “tornar-se”? Resta à sociedade somente impor uma forte regulação ou os avanços na área – nunca neutros e inevitáveis – podem ser redefinidos e descentralizados para servir às pessoas?

.

O tema do desenvolvimento de IA traz pelo menos duas ideias muito caras aos Estudos de Ciências-Tecnologias-Sociedades (aqui Estudos CTS)1. A primeira é que não existe “inteligência” sem “aprendizado”. O desenvolvimento atual da IA parte da hipótese de que um ente, seja classificado como humano ou máquina, não “é” inteligente, mas se torna inteligente ao aprender e ser treinado. O desafio da evidência neste sentido é figurativamente enfrentado pela apresentação de um bebê passivo onde não são encontráveis os sintomas de inteligência. (ABU-MOSTAFA, 2023) Em licença poética, “os especialistas dizem que ‘aprendizado de máquina’ é o que eles fazem, e ‘inteligência artificial’ é o que eles atingem”. Esta visão processual dos desenvolvimentos das IAs (no plural) ressoa perfeitamente com a ideia fundante dos Estudos CTS de que as verdades adquirem suas formas científicas à medida que vão se deixando construir e conhecer, afastando a ideia dominante de que elas já estariam previamente dadas na Natureza ou na Sociedade, aguardando para serem descobertas pela Ciência.

A visão de inteligências como resultado de processos de aprendizagem nos conduz a uma segunda ressonância entre os desenvolvimentos das IAs e os Estudos CTS. Na ontologia posta em cena pelas abordagens CTS todo ente, seja humano ou coisa, só se identifica e adquire existência como uma “justaposição provisional de elementos heterogêneos”. A hipótese fundante dos desenvolvimentos das IAs é a proposição de que uma rede de um número estonteante de elementos muito simples, binários como se pode dizer que são as sinapses no cérebro, é capaz de “aprender” e tornar-se “inteligente”. Os desenvolvedores das IAs chamam esses elementos de “parâmetros” e os comparam a botões que podem ser apertados ou não, torneiras que podem abrir ou fechar, a maçanetas que podem girar para algumas posições em um processo de aprendizagem ou treinamento da rede. Os desenvolvedores das IAs assim configuram uma justaposição provisional de “parâmetros” frente a informações que encontram na Internet. Uma rede provisionalmente configurada ou treinada pode ingressar no mercado como um produto de IA.

Podemos marcar as proposições enunciadas em universidades e centros de pesquisa como o CALTECH na década de 1980 as primeiras iniciativas na direção dos desenvolvimentos atuais de IAs como redes inspiradas nas sinapses. Durante quase quatro décadas essa proposição inspirada nas “redes neurais” não foi capaz de se robustecer o suficiente para gerar artefatos computacionais capazes de aprender. Pelo menos uma parte da explicação para isso foi a até então falta de capacidade dos computadores, relativamente muito pequenos frente às dimensões que precisam ser atingidas pelas redes de “parâmetros”. Para serem capazes de aprender o suficiente para que surjam sintomas do que se chama de IA as redes precisaram atingir a escala de bilhões de “parâmetros”.2 Mas o que mais intriga é o fato dessas redes adquirirem certa capacidade de agir no processo de aprendizagem como que por iniciativa e conta delas mesmas, um fenômeno reconhecido e até agora pouco entendido pelos próprios especialistas que as desenvolvem e as treinam.

As formas prévias de artefatos que invocavam historicamente a ideia de uma inteligência artificial que superasse a inteligência humana diferenciam-se radicalmente dos desenvolvimentos atuais das IAs, assim como a ideia de Ciência em um mundo platonizado difere muito das ideias de ciências no mundo posto em cena pela ontologia dos Estudos CTS. Bons exemplos destes artefatos prévios seriam o IBM Deep Blue®, que superou ou se igualou ao campeão mundial de xadrez Gary Kasparov3 e o IBM Watson® que venceu um time de humanos no programa de audiência Jeopardy!4 Esses dois exemplos famosos exigiram o trabalho de meses de times de analistas-programadores inteiramente dedicados a buscar uma resposta ou solução de um problema definido desde o início de maneira muito específica. Resumidamente, esses dois casos emblemáticos das formas prévias de IAs são aplicações da velocidade e da capacidade de armazenamento de informação dos computadores como uma “força bruta” para consultar e levar adiante processos rígida e previamente definidos.

Hoje é comum classificarem-se as IAs por dois tipos de suas funções: discriminativo e generativo. Ao tipo discriminativo pode-se fazer perguntas do tipo “de quem é esse rosto?” ou “qual é a doença de quem apresenta os seguintes sintomas?”. Ao tipo generativo pode-se atribuir tarefas do tipo “crie um rosto” ou “crie um tratamento para essa pessoa”. Dada a escala da Internet, não preciso apontar as miríades de possibilidades abertas pela emergência existencial (ontológica) de artefatos capazes lançar mão de um universo cada vez maior de “textos”, aqui incluídos vídeos e imagens, como ponto de partida para desempenhar suas funções.

Na ontologia proposta pelos Estudos CTS as redes (entes, seres) que habitam o universo são reais ou naturais, mas não têm forma predefinida; são coletivas, mas são sempre justaposições de humanos e coisas; e são narradas, mas não são só narrativas.5 Expandindo-se a partir do que é texto na Internet, é plausível supor que as IAs privilegiem, ao menos inicialmente, o que é narrado nos entes que fazem surgir no mundo.6 Colocada ainda nesse privilégio à narrativa surge uma bifurcação tecnopolítica que ganhou visibilidade no Ocidente desenvolvido (o que não inclui o nosso país) sobre o futuro do desenvolvimento das IAs. Os dois lados da bifurcação estão expressos em duas cartas, ambas assinadas por renomados especialistas.

Uma delas, assinada por milhares de profissionais e empresários, incluindo o icônico Elon Musk, foi publicada pelo Future of Life Institute. Ela propõe uma pausa mínima de seis meses no “treinamento de sistemas de IA (generativos) mais poderosos do que o GPT-4” para que se definam e implementem novas regulamentações. Não há consenso sobre essa pausa ou sequer sobre a viabilidade dela, mas a carta demanda também que

Os desenvolvedores de IA devem trabalhar com os formuladores de políticas para acelerar drasticamente o desenvolvimento sistemas robustos de governança de IA. Estes devem incluir, no mínimo: novas autoridades reguladoras capacitadas a lidar com a IA; supervisão e rastreamento de sistemas de IA de alta capacidade; uma auditoria detalhada; um ecossistema de certificação; financiamento público adequado para pesquisa técnica de segurança de IA; instituições para lidar com as dramáticas rupturas econômicas e políticas que a IA causará, especialmente para a democracia. (Pause Giant AI Experiments: An Open Letter, 2023)

A outra carta muito publicizada, Statement from the listed authors of Stochastic Parrots on the “AI pause” letter, assinada pelos autores do artigo acadêmico publicado em 2021, hoje famoso e informalmente conhecido como “papagaios estocásticos” (BENDER; GEBRU; MCMILLAN-MAJOR; SCHMITCHELL, 2021), não discorda da necessidade de conceber novas regulamentações, mas oferece um contraponto tecnopolítico à primeira.

Ao contrário da narrativa da carta de que devemos nos “adaptar” a um futuro tecnológico aparentemente pré-determinado e lidar “com as dramáticas rupturas econômicas e políticas que a IA causará, especialmente para a democracia”, não concordamos que nosso papel seja nos ajustarmos às prioridades de alguns indivíduos privilegiados e o que eles decidem construir e proliferar. Deveríamos estar construindo máquinas que funcionem para nós, em vez de “adaptar” a sociedade para ser legível e gravável por máquina. A corrida atual em direção a experimentos de IA cada vez maiores não é uma estrada preordenada onde nossa única escolha é a que velocidade correr, mas sim um conjunto de decisões impulsionadas pelo lucro. As ações e escolhas das corporações devem ser moldadas por regulamentos que protejam os direitos e interesses das pessoas. (ênfase acrescentada) (Statement from the listed authors of Stochastic Parrots on the “AI pause” letter, 2023)

Não há aqui espaço para mais do que observar que enquanto a primeira carta reforça a continuidade de um caminho já trilhado pelo Ocidente que reforça um centro garantidor dos significados do que as IA venham a oferecer como conhecimento, a segunda abre possibilidades descentralizadas de construção de IAs que venham a oferecer facilidades para novos modos de existência na construção de novos mundos comuns.(LATOUR, 2017/2020)

Os Estudos CTS criticam e problematizam o caminho que vem sendo trilhado pelo Ocidente garantidor de um centro de significados na geração de conhecimentos. Ao fazer isso os Estudos CTS mostram como dignificar epistemologicamente conhecimentos de fora do Ocidente. Os Estudos CTS abrem possibilidades descentralizadas de construção de conhecimentos que venham a oferecer facilidades para o compartilhamento de modos de existência diferentes em um novo mundo comum.

[Artigo publicado no Boletim CTS em Foco, 3, n. 2, p. 12-17, Abr-Jun 2023]


Referências:

ABU-MOSTAFA, Y. Artificial Intelligence: The Good, the Bad, and the Ugly. Caltech Watson Lectures. caltech.edu/watson or on Caltech’s YouTube channel (https://www.youtube.com/watch?v=-a61zsRRONc&t=767s) 2023.

BENDER, E. M.; GEBRU, T.; MCMILLAN-MAJOR, A.; SCHMITCHELL, S., 2021, ACM FAccT’21, Virtual Event, Canada. On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? ACM. 14.

LATOUR, B. Jamais fomos modermos – ensaio de antropologia simétrica. Tradução COSTA, C. I. d. 1ª ed. Rio de Janeiro: Editora 34, 1991/1994. 152 p. 8585490381.

LATOUR, B. Onde aterrar? – Como se orientar politicamente no Antropoceno. Tradução COSTA, M. V. A. Rio de Janeiro: Bazar do Tempo, 2017/2020. 158 p. 978-65-86719-18-5.

Pause Giant AI Experiments: An Open Letter. https://futureoflife.org/open-letter/pause-giant-ai-experiments/, 2023. Acesso em: 31 de julho de 2023.

Statement from the listed authors of Stochastic Parrots on the “AI pause” letter. https://www.dair-institute.org/blog/letter-statement-March2023/, 2023. Acesso em: 31 de julho de 2023.



1 Olhar as ciências, e especialmente as tecnociências, a partir dos estudos que em nossas metrópoles se denominam Science Studies, aqui chamados Estudos CTS (Ciências-Tecnologias-Sociedades), conduz a diferentes entendimentos do que vêm a ser os conhecimentos científicos e os possíveis novos rumos em suas construções. Há no Brasil vários grupos, especialmente os associados à ESOCITE.BR (Associação Brasileira de Estudos Sociais das Ciência e das Tecnologias) (https://www.esocite.org.br/), que adotam a perspectiva CTS, abrindo frentes para conhecimentos do “local”, ditos conhecimentos “situados”, inclusive aqueles decorrentes da diáspora africana e dos povos originários. Ao apontar essas aberturas os Estudos CTS, apesar de terem origem em nossas metrópoles, podem tornar-se poderosas ferramentas para criticar a reprodução da colonialidade no Brasil.

2 A escala do cérebro humano é de trilhões de sinapses.

3 Veja https://www.ibm.com/ibm/history/ibm100/us/en/icons/deepblue/ (consultado em 01∕07∕2023)

4 O programa Jeopardy! desembarcou no Brasil com o nome “O céu é o limite”. Veja https://www1.folha.uol.com.br/fsp/ilustrissima/35834-o-ceu-e-o-limite.shtml (consultado em 01∕07∕2023)

5 “Será nossa culpa se as redes são ao mesmo tempo reais como a natureza, narradas como o discurso, coletivas como a sociedade?” (LATOUR, 1991/1994:12)

6 O movimento pós-estruturalista no século XX (incluindo pensadores como Jacques Derrida, Julia Kristeva, Roland Barthes, Gilles Deleuse, Felix Guattari e Michel Foucault) abriu um caminho para a reformulação da participação do “texto” no “conhecimento”.

Outras Palavras é feito por muitas mãos. Se você valoriza nossa produção, seja nosso apoiador e fortaleça o jornalismo crítico: apoia.se/outraspalavras

Leia Também:

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *