Por uma IA lenta

Tecnologia modifica a sociedade em velocidades exponenciais. Auditorias de empresas e governos não bastarão: torná-la responsável e decolonial requer ações educativas e participação cidadã. O conceito de bioética é essencial para refletir sobre seus riscos e potências

Imagem publicada no bond.org.uk
.

Título original do artigo de Elen Nas1: A Bioética da IA Responsável e Decolonial

Pensar em princípios para sistemas algorítmicos responsáveis é considerar que a inteligência artificial (IA) está cada vez mais sendo utilizada em todas as esferas da sociedade com potencial de grande impacto2. Todas as esferas significa não apenas desde que acordamos e vamos dormir, mas também enquanto dormimos. Os computadores não podem parar, nossos moldems ficam ligados enviando sinais para o ambiente. O despertador do telefone celular toca, desligamos, vemos as mensagens, abrimos os aplicativos onde estas mensagens estão. Cada gesto, cada ação, cada movimento, apenas na interação com o telefone celular é registrada e de algum modo classificada. A IA torna-se o império da vida quantificada: das operações bancárias, às horas de sono; das preferências de conteúdo no Google, Instagram ou similar, aos alimentos que você consome e que são registrados e contabilizados pelos aplicativos e outros sistemas utilizados pelos vendedores. Os seus gostos musicais ou os tipos físicos pelos quais você se sente mais atraído, tudo é quantificado e a chamada “inteligência” da IA é – ao aprender sobre os padrões – prever comportamentos, intenções e desejos.

Ainda que permaneça um desafio mensurar todos os impactos na vida destas constantes leituras, predições e manipulações, não nos resta dúvidas de que os conceitos de ética e justiça foram moldados em contextos históricos e sociais bem distintos da nossa era contemporânea onde as tecnologias aliadas à projetos industriais vêm se desenvolvendo e modificando a sociedade e as relações sociais em velocidades exponenciais.

O conceito bioética aparece no início do século 20 quando a crítica à sociedade industrial já considera preocupações ambientais, além da crítica social relacionada à exploração do tempo no trabalho como negação de qualidade de vida para as parcelas da sociedade que sustentam todo sistema de produção de riqueza. A bioética então surge como uma ponte de entendimento sobre a ética e os impactos dos projetos humanos na natureza, representados pela tecnociência e biotecnologias. Afinal, a IA não existiria com toda pulsão de desenvolvimentos que atingem todas as áreas de gestão de informação – desde o individual ao social – não fora o imaginário da racionalidade científica moderna. E a Filosofia e o Direito, que são duas áreas dedicadas ao estudo da Ética, em separado, não foram capazes de atingir o território da Ciência e com ela travar debates pois a cultura disciplinar instaurada nos campos do conhecimento desde o século 18 agregou tecnicidade não apenas às Ciências Exatas, como também às Humanidades.

Assim, quando hoje há uma crítica sobre as possibilidades de “lavagem ética”3 é porque o olhar meramente técnico sobre a ética gera um apagamento no que deveria ser um exercício filosófico de fazer perguntas como forma de atingir um conhecimento que ainda não está pronto e que vai sendo construído pela reflexão. Porém, a visão da Universidade como mais um dos “parques industriais” do tecido social têm feito com que o seu corpo acadêmico busque amparo no que já é conhecido, no canônico, nas extensas revisões de autores seculares e na desconfiança permanente com os conceitos emergentes e os debates contemporâneos, como tentativa de fuga das instabilidades e incertezas.

Dentro do debate da IA Responsável (IAR) há uma crítica sobre contratar consultorias éticas para adequar as empresas às demandas principialistas dando voz aos filósofos que irão demonstrar através da retórica que o conhecimento filosófico é também técnico e exclusivo de pensadores que apenas repetem o que já foi dito desde suas “torres de marfim”. Porém precisamos atentar para o fato de que não é interessante desqualificar a necessidade do debate ético, mas que a visão instrumental da Ética na Filosofia torna os filósofos pouco aptos para debates interdisciplinares. A bioética, por sua vez, já nasce interdisciplinar, com a missão de estabelecer pontes entre os campos do conhecimento onde faz-se necessário acolher diferentes pontos de vista dentro de uma ética da hospitalidade. Agregando-se a ela a abertura para novos conceitos e visões, assim como um alinhamento à crítica da racionalidade moderna desde suas origens e estruturas, com o entendimento que o conhecimento não é neutro, ele representa as visões e anseios daqueles que o realizam, de acordo com os contextos e momentos históricos.

Neste ponto a bioética encontra a crítica decolonial, já que toda construção do conhecimento ocidental foi feita por indivíduos privilegiados, dentro de um sistema de desigualdades com exploração do tempo e trabalho dos povos e indivíduos dominados pela força. Inclusive entendendo que os processos de dominação de territórios são anteriores ao colonialismo moderno, de modo que opressores e oprimidos não eram distinguidos pela cor da pele, senão por aspectos culturais, sociais e religiosos. E o racismo que hoje revela as inconsistências da IA e um dos seus maiores riscos, foi uma invenção do colonialismo moderno, de modo a apagar as críticas anteriores aos violentos processos de invasões territoriais, com a justificativa de que os povos nativos das Américas e africanos eram sub-raças e que portanto não haveria o compromisso de evocar os direitos universais em sua proteção.

Assim, as características antropocêntricas, etnocêntricas e especístas do conhecimento científico moderno em todas as suas áreas, moldaram as formas de ver e conhecer o mundo, assim como conferir autoridade sobre o que é válido e o que não é bom o suficiente. Coincidentemente os povos mais afetados pela violência colonial e seus descendentes costumam ser os que menos se adéquam aos moldes de excelência – nos estudos, trabalho e sociedade.

Pensar na decolonialidade da IA têm sido um exercício mais recente e procura responder os problemas éticos recorrentes apresentados pela IA. Desde estereótipos de beleza até a super-representação de pessoas de pele clara em classificações mais positivas, e a super-representação de pessoas de pele escura em situações mais negativas. A sub-representação dos grupos mais vulneráveis em dados que os protejam de interpretações falhas para uma avaliação de saúde ou financeira. Então, quando se pensa em decolonialidade se entende que as falhas continuarão a acontecer desde que representam problemas estruturais e não apenas um “mal funcionamento” pontual que poderá ser resolvido com algum ajuste superficial. As tecnologias da informação não são meras ferramentas onde quebra-se um cabo, e pode-se substituí-lo. Elas são tramas, arquiteturas de um conhecimento que requer um exame mais profundo e atento.

Com a corrida mundial para implementar a IA como produtos adquiridos por governos e demais instituições, a necessidade da IAR vêm sendo discutida como uma tentativa de minimizar danos. Entretanto, como sociedade nós precisamos mais do que isto. Afinal, tentativas não irão garantir que os princípios relacionados à segurança, privacidade, transparência, explicabilidade e auditabilidade serão de fato respeitados. E quando se fala em “minimizar” danos assume-se que estes são inevitáveis. Sim, dilemas sobre decisões de impacto para muitas vidas serão cada vez mais frequentes e a bioética que não é tampouco um campo onde todas as perspectivas convergem, têm seu histórico cercado por dilemas, tendo deste modo alguns aprendizados a compartilhar.

Podemos também entender que a bioética não é uma disciplina, mas um conceito, não é uma ferramenta, mas uma proposta de método. E, desse modo, que o exercício bioético como interdisciplinar deva ser levado para outros campos do conhecimento de modo que, por exemplo, os desenvolvedores de sistemas de IA reflitam sobre suas decisões e como elas acontecem, de modo a melhor entender como a IA poderá ser capaz de sugerir decisões.

Sendo assim, quando colocamos lado a lado a bioética, a crítica decolonial e a IAR sugerimos refletir sobre como as estruturas do conhecimento resultam em biopolíticas e como os modos hierárquicos que sustentam as estruturas de poder (igualmente refletidas nas estruturas do conhecimento) podem referendar necropolíticas quando as decisões são sobre os que importam mais e o que importam menos. Uma estrutura binária que entre os gregos da antiguidade eram entendidas como bios e zoe. A vida cidadã e a vida nua. O grupo seleto que pode gozar de direitos, e todos os outros, humanos e não humanos, que não fazem parte desta bolha.

Para desconstruir este vício histórico e tornar de fato os direitos fundamentais acessíveis universalmente, de modo que a IA reflita tais direitos como uma IAR, venho aqui advogar por um outro conceito: a IA Lenta.

Pois, se não apenas empresas como também o corpo legislativo deve investir em auditorias para que seja possível uma IAR real, serão necessárias ações educativas sobre o que é IA e sobre como exercitar o debate bioético em processos de tomada de decisão. Programas de instrução em diversos níveis, para auditores (de diversos setores), legisladores e sociedade.

Se toda crítica à racionalidade moderna e sobre como ela culmina em sistemas de IA é que até agora o treinamento da arquitetura dos sistemas é focada em aspectos técnicos sob uma lógica onde dúvidas e incertezas são ignoradas e em seu lugar são geradas respostas aproximadas que se apresentam ilusoriamente com o status de verdade, a IA Lenta poderá contar com comitês bioéticos para avaliação dos algoritmos e seus impactos.

Certo que a IA envolve uma mudança paradigmática desde que as relações entre o humano, a natureza e a sociedade estão interligadas. Se a IAR emerge como um framework onde finalmente se entende que não há IA sem debate ético, para que este debate não seja apenas prescritivo, precisamos ativar o pensamento crítico e evocar o exercício da reflexão dentro de um campo especulativo que é a bioética. É especulativo pois se entende que não há necessariamente uma resposta certa, mas que se procura prever o que pode dar errado neste ou naquele desenvolvimento ou implementação. Este é também o caminho para entender os riscos, onde irão impactar e de que modo.

Tambem é necessário desenvolver a consciência nos campos corporativos e de governança, de que a IA faz parte de um ideário ocidental que confere um status subalterno aos conhecimentos e perspectivas de outras culturas. Assim, uma monocultura ou supremacia cultural propaga invisibilidade da diversidade dificultando, em última instância, o reconhecimento da alteridade.

O entendimento de uma IA Decolonial considera a sub representação de dados relacionados à diversidade cultural e epistêmica, o que significa não apenas a sub-representação de comunidades marginalizadas em dados considerados de valor humano, social, ético e estético, mas que as injustiças sofridas pelos povos impactados pelo colonialismo, através da IA tornam-se protótipos de futuras opressões que poderão ser aplicadas em diversos contextos.

Desse modo, para que uma IA seja decolonial é necessário priorizar necessidades locais, incentivar participação cidadã, investir em coleta e desenvolvimento de bases de dados que representem as diversas culturas do território e que as instituições culturais e acadêmicas reconheçam os conhecimentos dos povos originários e promovam participação pró-ativa dos grupos marginalizados da sociedade.

Fundamentalmente entender que práticas éticas não são compradas em manuais. Elas vêm a requerer exame e reflexão e, no contexto brasileiro a crítica decolonial expõe tensões sobre as quais não se devem ignorar, sendo a bioética a ponte para avaliar os conceitos aqui evocados como um exercício permanente sobre a ética da hospitalidade aplicada aos diálogos interdisciplinares.


Bibliografia:

AGAMBEN, Giorgio. Homo Sacer: o poder soberano e a vida nua 1. Tradução Henrique Burigo. Belo Horizonte: Editora UFMG, 2002.

ALMEIDA, V. NAS, E. Desafios da IA Responsável na Pesquisa Científica. Revista USP, 2024 (no prelo).

ANGWIN, Julia et al. Machine bias. In: Ethics of data and analytics. Auerbach Publications, 2022. p. 254-264.

ARAÚJO, Camila Souza; MEIRA, Wagner; ALMEIDA, Virgilio. Identifying stereotypes in the online perception of physical attractiveness. In: Social Informatics: 8th International Conference, SocInfo 2016, Bellevue, WA, USA, November 11-14, 2016, Proceedings, Part I 8. Springer International Publishing, 2016. p. 419-437.

BAUMAN, Zygmunt. Globalização: as consequências humanas. Zahar, 1999.

BENDER, Emily M. et al. On the dangers of stochastic parrots: Can language models be too big? In: Proceedings of the 2021 ACM conference on fairness, accountability, and transparency. 2021. p. 610-623.

BENJAMIN, Ruha. Assessing risk, automating racism. Science, v. 366, n. 6464, p. 421-422, 2019.

BERTONCINI, Ana Luize Corrêa; SERAFIM, Mauricio C. Ethical content in artificial intelligence systems: A demand explained in three critical points. Frontiers in Psychology, v. 14, p. 1074787, 2023.

BILL & MELINDA GATES FOUNDATION. Catalyzing Equitable Artificial Intelligence (AI) Use. Global Grand Challenges. 2023. (Disponível em: https://gcgh.grandchallenges.org/challenge/catalyzing-equitable-artificial-intelligence-ai-use ) Acesso em 30/01/2024).

CONROY, Maggie. The Ethics of Slow AI: Why Taking Time to Develop Technology Matters. Data Lab Notes. Online. Disponível em: https://datalabnotes.com/slow-ai/ (Acessado em 14/03/2024).

COULDRY, N. and MEJIAS, U., (2023) The decolonial turn in data and technology research: what is at stake and where is it heading?, Information, Communication & Society, 26:4, pp. 786-802. 2023. DOI: 10.1080/1369118X.2021.1986102

DAIR INSTITUTE. Timnit Gebru Launches Independent AI Research Institute On Anniversay of Ouster from Google. Online. 2021. Disponível em https://www.dair-institute.org/press-release/ (Acessado em 14/03/2024).

DECOLONIZAI. Sobre o Projeto. Website. 2022. Disponível em: https://www.decolonizai.com/sobre-o-projeto/ (Acesso em 30 de janeiro de 2024). DIMENSIONS AI. Linked Research Data from Idea to Impact: Dimensions Data and Solutions for Discovery and Analytics. Disponível em: https://www.dimensions.ai/ (Acessado em Janeiro, 2024).

FILGUEIRAS, F., and ALMEIDA, V. (2021). Governance for the digital world: Neither more state nor more market. London, UK: Palgrave-MacMillan.

FLORIDI, Luciano; SANDERS, Jeff W. On the morality of artificial agents. Minds and machines, v. 14, p. 349-379, 2004.

FLORIDI, Luciano, ‘Distributed morality’,The Ethics of Information (2013;online ed,Oxford Academic, 23 Jan. 2014).

FOUCAULT, Martins. Nascimento da biopolítica: Curso dado no Collège de France (1978-1979). São Paulo: Martins Fontes, 2008.

GARCÍA-VIGIL, José L. Reflexiones en torno a la ética, la inteligencia humana y la inteligencia artificial. Gaceta médica de México, v. 157, n. 3, p. 311-314, 2021.

GORDON, Lewis Ricardo. Medo da Consciência Negra. Trad. José Geraldo Couto. São Paulo: Todavia. 2023.

HAO, Karen. We read the paper that forced Timnit Gebru out of Google. Here’s what it says. MIT Technology Review. Dezembro, 2020. Disponível em: https://www.technologyreview.com/2020/12/04/1013294/google-ai-ethics-research-paper-forced-out-timnit-gebru/ (Acessado em Janeiro, 2024).

IPEA. Atlas da Violência. Online. 2023. Disponível em https://www.ipea.gov.br/atlasviolencia/ (Acessado em 14/03/2023).

MACIEL, Lucas da Costa. 2019. “Perspectivismo ameríndio”. In: Enciclopédia de Antropologia. São Paulo: Universidade de São Paulo, Departamento de Antropologia. Disponível em: https://ea.fflch.usp.br/conceito/perspectivismo-amerindio

O’NEIL, Cathy. Algoritmos de destruição em massa. Editora Rua do Sabão, 2021.

O’NEIL, Cathy.Weapons of math destruction: How big data increases inequality and threatens democracy. Crown, 2017.

ONU. Declaração universal dos direitos humanos. 1948. Disponível em: https://declaracao1948.com.br/declaracao-universal/declaracao-direitos-humanos/ (Acesso em 14/03/2024)

MAGNO, Gabriel et al. Stereotypes in search engine results: understanding the role of local and global factors. arXiv preprint arXiv:1609.05413, 2016.

MBEMBE, Achille. Necropolítica. Arte & ensaios, n. 32, p. 122-151, 2016.

MBOA NKOUDOU, Thomas Hervé. We need a decolonized appropriation of AI in Africa. Nature Human Behaviour, p. 1-2, 2023.

MENDONÇA, R. F., ALMEIDA, V., & FILGUEIRAS, F. Algorithmic Institutionalism: The Changing Rules of Social and Political Life. Oxford University Press. 2023.

MILLER, Katharine. The Movement to Decolonize AI: Centering Dignity Over Dependency. Stanford HAI. 21 de Março de 2022. Disponível em: https://hai.stanford.edu/news/movement-decolonize-ai-centering-dignity-over-dependency (Acesso em 30/01/2024).

MOHAMED, S., Png, M.-T., & Isaac, W. Decolonial AI: Decolonial theory as sociotechnical foresight in artificial intelligence. Philosophy and Technology, 33(4), pp. 659–684. 2020. https://doi.org/10.1007/s13347-020-00405-8

NAS, E. Descolonizar o conhecimento: A perspectiva de Lewis Gordon: Decolonizing knowledge: The perspective of Lewis Gordon. Revista Desenvolvimento Social, [online], v. 29, n. 2, p. 189–199, 2023. DOI: 10.46551/issn2179-6807v29n2p189-199. Disponível em: https://www.periodicos.unimontes.br/index.php/rds/article/view/7146. Acesso em: 15 mar. 2024.

NAS, Elen et al. Future Visions for a Decolonized Future of HCI: Thick Descriptions of a Survey Interaction to Discuss the Colonization of Imagination. In: International Conference on Human-Computer Interaction. Cham: Springer Nature Switzerland, 2023. p. 109-116.

NAS, Elen. Bioethics of NonPresence: Body, Philosophy and Machines. 2021.

NASCIMENTO, E. C. C. Reflexões Bioéticas na Era da Inteligência Artificial. In: Caminhos da Bioética. ed. Castro, J.C. & Niemeyer-Guimarães, M. Editora Unifeso. pp. 345-362. 2019.

NOBLE, Safiya Umoja. Algorithms of oppression. In: Algorithms of oppression. New York university press, 2018.

OECD. AI Principles. https://oecd.ai/en/ai- principles, 2019.

RAJI, Inioluwa Deborah; CHOCK, SASHA COSTANZA; BUOLAMWINI, DRJOY. Change From the Outside: Towards Credible Third-Party Audits of AI Systems. MISSING LINKS IN AI GOVERNANCE, p. 5, 2023.

TADDEO, Mariarosaria; FLORIDI, Luciano. How AI can be a force for good. Science, v. 361, n. 6404, p. 751-752, 2018.

UNESCO. Recommendations on the Ethics of Artificial Intelligence. https://www.unesco.org/en/artificial- intelligence/recommendation- ethics, 2021.

ZUBOFF, Shoshana. The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. New York: PublicAffairs, 2019.


Notas:

1Posdoc na Cátedra Oscar Sala, do Instituto de Estudos Avançados da Universidade de São Paulo; Doutora em Bioética, Ética Aplicada e Saúde Coletiva; Mestre em Design e Cientista Social, coordena o grupo de Estudos de IA Responsável da Cátedra e o grupo DecolonizAI. Possui também formação em Música e habilidades em múltiplas linguagens artísticas. Foi Pesquisadora Visitante no Departamento de Informática da Universidade da Califórnia-Irvine e no Departamento de Filosofia da Monash University. É autora dos livros “Arte Eletrônica: Elo Perdido” e “Bioethics of Non-Presence,: Body, Philosophy and Machines.” Colaboradora do ArtSciLab da Universidade do Texas-Dallas, da Rede BrainNIAC (Neurociências, Nanorobótica, IA e Cognição), Rede Lavits; Estratégia Latina Americana da IA; Filosofia Pop; Neuro-I-Self, LIEPAS (UNIRIO). Mais: https://linktr.ee/Dr_Elen_Nas

2 ACM Statement on Principles for Responsible Algorithmic Systems. https://www.acm.org/articles/bulletins/2022/november/ tpc-statement-responsible-algorithmic-systems, Oct 2022.

3BIETTI, Elettra. From ethics Washing to ethics bashing: a moral philosophy view on tech ethics. Journal of Social Computing, v. 2, n. 3, p. 266-283, 2021.

Leia Também:

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *