NOVA CENTRAL SINDICAL
DE TRABALHADORES
DO ESTADO DO PARANÁ

UNICIDADE
DESENVOLVIMENTO
JUSTIÇA SOCIAL

As empresas que desenvolvem modelos de Inteligência Artificial – IA prometem inovações, facilidades à vida cotidiana e maneiras de tornar o trabalho mais simples, mas nestas discussões há o outro lado: a IA traz consigo diversas contradições em relação aos impactos sociaisambientais e o mundo do trabalho. É a partir destas problemáticas que o Prof. Dr. Levi Checketts ministrou sua palestra intitulada “Tecnologia e desigualdade multidimensional. IA e a experiência da pobreza”. Ela faz parte do ciclo de estudos Inteligência Artificial. Potencialidades, desigualdades e o risco existencial humano do Instituto Humanitas Unisinos – IHU.

Em sua fala, Levi Checketts afirmou que os pobres são excluídos das discussões sobre IA. “A IA é desenvolvida em sociedades que desvalorizam os pobres. Nos EUA, por exemplo, país líder no desenvolvimento de IA, a aprovação moral é quase sinônimo de riqueza material. Um homem rico é um bom homem, e os pobres e sem-teto são considerados pobres de caráter também”, pontua.

Para ele, é difícil discutir direitos a máquinas e a IA enquanto há humanos que não usufruem de direitos humanos básicos para viver. “Devemos conceder direitos humanos a todos os humanos antes de estendê-los a não humanos”. A IA é vista como uma extensão do ser humano, uma imagem limpa do que imaginamos ser e é por isso que ela é mais confortável como alter ego para as elites do que os pobres. “Ser pobre, com todas as misérias que isso acarreta, é o maior desvalor de um sistema capitalista. As classes altas relacionam-se com os pobres apenas como aqueles que devem ser evitados, para que a contaminação não se instale”, diz.

Em relação às mudanças climáticas, Levi afirma que a ideia de que a IA resolverá todos os problemas do mundo é um erro. “Quando Eric Schmidt, ex-CEO do Google, afirma que a IA é a única solução para a mudança climática, devemos protestar vigorosamente: a IA é uma tecnologia extremamente dispendiosa em termos de energia e recursos, atualmente agravando a crise climática”.

A seguir, publicamos, no formato de entrevista, a conferência “Tecnologia e desigualdade multidimensional. IA e a experiência da pobreza”.

Levi Checketts é doutor em Filosofia e Teologia e professor da Hong Kong Baptist University, na China. Autor de “Poor Technology: Artificial Intelligence and the Experience of Poverty” [Tecnologia pobre: inteligência artificial e a experiência da pobreza, em tradução livre].

IHU – O que significa pensar no futuro da inteligência artificial?

Levi Checketts – Como professor universitário, tenho encontrado inúmeras declarações sobre o futuro inevitável da IA. Nossos coordenadores de pesquisa proclamam que a IA é o futuro para o qual devemos nos preparar. Centenas de milhares, ou até milhões, de dólares de Hong Kong estão destinados a projetos de pesquisa em IA. Desenvolvemos uma “Estratégia de IA” para nossos professores e alunos, focada em “equipar” os estudantes para usarem IA em suas carreiras. E os próprios alunos compraram essa ideia de corpo e alma. Já li diversos artigos nos últimos dois anos que começam com alguma variação da frase: “A Inteligência Artificial é importante para o nosso futuro”.

O estudioso de Ciência, Tecnologia e Sociedade Lee Vinsel define essa atenção como “criti-hype”. A atenção dada à IA nos últimos anos a promove como a tecnologia definitiva. Luciano Floridi e outros recentemente apresentaram um estudo mostrando como o conceito de “ética da IA” se tornou um campo incrivelmente popular, com literalmente milhares de novos empregos sendo abertos na Europa nos últimos dois anos. Por que tantos chamados especialistas em ética? Porque, como observa Vinsel, a IA é anunciada simultaneamente como a tecnologia mais importante para nosso novo futuro e como uma tecnologia potencialmente catastrófica.

Uma análise mais sóbria, Vinsel argumenta, indicaria que a disrupção da IA precisaria ser uma disrupção prolongada para ser realmente impactante. Embora os automóveis tenham sido certamente fonte de muita preocupação social em seus primeiros anos, não transformaram as cidades em selvas de concreto distópicas por algumas décadas. Portanto, em vez de previsões grandiosas sobre como a IA mudará todos os aspectos da existência humana, desde o trabalho mais tedioso até nossos relacionamentos, nosso entretenimento e até nossas crenças religiosas, deveríamos observar as formas como a IA está mudando as coisas.

Ética da IA

Os verdadeiros especialistas em ética da IA, e não apenas advogados, agentes de opinião pública ou fãs de ficção científica tentando se aventurar na filosofia, observaram que os problemas reais da IA hoje incluem vieses, confiança acrítica, privacidade e transparência, e impactos ambientais. As IAs não são motores analíticos objetivos que revelam a verdade para quem pergunta; são modelos construídos com base nas suposições de seus programadores, suposições que possuem suas próprias limitações e vieses. E, por conta desses vieses, não devemos confiar cegamente no que é gerado pela IA. Também é importante perguntar como a máquina funciona, como ela chega às respostas que apresenta e o que acontece com os dados das pessoas que entram na máquina. E tudo isso, devemos lembrar, é feito por máquinas que consomem muita energia, contribuindo para o agravamento das mudanças climáticas. Essas preocupações podem não ser tão dramáticas quanto o medo de Nick Bostrom de que uma máquina produtora de clipes de papel poderia destruir o planeta, mas são questões reais que afetam pessoas reais e nossa experiência real no mundo.

Acho surpreendente que, em meio a muitas dessas conversas, poucas pessoas tenham perguntado o que acontece com os pobres. Quando essa questão surge, geralmente é enquadrada apenas em termos de trabalho, ou seja, quais empregos serão substituídos pela IA. Outros aspectos da pobreza, como doenças, habitação, segurança e alimentação, são ignorados. Não parecem relevantes. E por que seriam relevantes?

Exclusão dos pobres

A realidade é que a exclusão dos pobres nas discussões sobre IA revela profundamente o que há de mais preocupante nessa tecnologia. Questões humanas reais são frequentemente levantadas apenas por pensadores mais cautelosos, e não por profetas do apocalipse ou da prosperidade. A IA não é uma tecnologia que se encaixa na vida humana real – é uma tecnologia de fantasia e sempre foi. Desde os anos 1950, quando pessoas como Alan Turing, John McCarthy e Marvin Minsky estavam criando o campo e tentando descobrir como fazer um monte de tubos de vácuo “pensar” como um ser humano, pesquisadores de IA e os que os escutam têm acreditado que podemos criar nossos próprios monstros de Frankenstein, embora em uma máquina calculadora, em vez de tecido orgânico costurado. Mas desde os anos 1960, críticos como Hubert Dreyfus notaram que a mente humana é muito mais do que um simples dispositivo de cálculo. Estar no mundo é ter crescido nele, com um entendimento sobre como as coisas funcionam, moldado por linguagem, cultura, religião e comunidades. A história de criação de Adão, feito do pó da terra, é um modelo apropriado para os seres humanos – surgimos do pó da terra, e não do céu, já completos.

Acredito que grande parte do interesse na IA atualmente é perigosa para os pobres. Não quero dizer que a IA em si seja uma tecnologia perigosa para os pobres, mas que os interesses em jogo no desenvolvimento e no uso dela em quase todos os contextos são projetados para beneficiar os ricos e poderosos, com o efeito de marginalizar ainda mais os pobres. Cito algumas preocupações específicas: o problema dos recursos e da riqueza, os valores incorporados na IA e, em minha opinião, o mais preocupante, a antropomorfização da IA.

IHU – Como lidar com a limitação de recursos perante a promessa da IA de crescimento econômico ilimitado?

Levi Checketts – A primeira crítica à IA feita por um filósofo foi o artigo de Hubert Dreyfus, “Alchemy and Artificial Intelligence” (publicado em 1965). O ponto que Dreyfus destacou, e que reiterou em What Computers Can’t Do, é que algumas formas de pensamento não são programáveis; portanto, presumir que uma máquina possa pensar como um humano é semelhante às fantasias dos alquimistas. Gosto da metáfora, mas prefiro considerar a IA como uma espécie de pedra filosofal. A linguagem usada para vender a IA certamente não hesitou em prometer que ela será uma tecnologia milagrosa que melhorará todos os aspectos da vida humana. Também é prometido crescimento econômico ilimitado por meio dela. De fato, se a IA é capaz de realizar todos os nossos desejos econômicos, é a promessa de transmutação pela qual os alquimistas tanto ansiavam.

O problema, claro, é que não existe crescimento econômico ilimitado. Vivemos em um universo finito, em um planeta com apenas tantos recursos. O que é pior, segundo o que sabemos sobre a expansão do universo e a lei da entropia, toda troca envolve uma perda. Na cadeia alimentar, menos animais vivem no topo porque a predação não captura totalmente as calorias consumidas pelos herbívoros. Pêndulos desaceleram. A ideia de uma máquina de movimento perpétuo é pura fantasia. A IA não pode criar ex nihilo, e o custo de criação e funcionamento da IA, como apontado por um número crescente de estudiosos, é extremamente alto em comparação com outras tecnologias.

Relação entre a IA e as mudanças climáticas

E. F. Schumacher observou em 1966 que o desejo capitalista de crescimento contínuo não pode ser sustentado e que deveríamos adotar um sistema econômico “budista” de equilíbrio e harmonia. Nos anos 1970, James Lovelock e Lynn Margulis argumentaram que nosso planeta funciona como um organismo, com múltiplas “esferas” (biosfera, hidrosfera, litosfera, atmosfera) trabalhando como sistemas de órgãos. Em 1968, Buckminster Fuller escreveu Operating Manual for Spaceship Earth, enfatizando os recursos limitados de nosso planeta enquanto ele viaja pelo espaço. Em resumo, há mais de 50 anos, o problema do consumo acrítico de recursos foi claramente definido. Aqueles que acreditam que a IA resolverá todos os problemas, incluindo a mudança climática, não se deram ao trabalho de fazer sua própria lição de casa sobre o assunto.

Isso significa que, quando gastamos dinheiro e usamos recursos para o desenvolvimento e implantação da IA, estamos utilizando recursos que poderiam ser destinados aos pobres. Claro, o mesmo argumento pode ser feito para uma variedade de nossas atividades econômicas, como as indústrias de entretenimento ou moda, e esse ponto foi levantado profeticamente pelos bispos dos EUA contra a indústria de armamentos em 1983. No entanto, ninguém afirmou que precisamos investir fortemente em parques da Disney ou na Gucci para nos salvarmos e salvarmos nosso planeta. Altruístas eficazes, no entanto, fazem exatamente esse argumento quando direcionam suas “doações” de caridade de volta para as mesmas empresas de tecnologia que possuem. A alegação não comprovada de que a IA pode nos ajudar a resolver certos problemas relacionados a crises ambientais ou desigualdade econômica torna-se uma justificativa para investir mais em IA.

Como Emile Torres e Timnit Gebru apontaram, existe uma espécie de mentalidade colonial quando ricos ocidentais brancos decidem que a pesquisa em IA é mais importante para o nosso futuro do que redes mosquiteiras. Isso é terrivelmente irônico; o altruísmo eficaz foi fundado com base no argumento de Peter Singer de que os ricos têm o dever de doar toda a sua riqueza excedente aos necessitados porque isso produzirá muito melhor dessa forma. Se o argumento para o altruísmo eficaz é que ele pode ajudar mais pessoas do que o capitalismo sozinho, então o dinheiro dado deveria ser destinado aos necessitados.

A questão, claro, não é que estamos direcionando o dinheiro errado. O ponto é que investir em IA significa investir em uma tecnologia que não ajuda realmente os pobres. Portanto, quando Eric Schmidt, ex-CEO do Google, afirma que a IA é a única solução para a mudança climática, devemos protestar vigorosamente: a IA é uma tecnologia extremamente dispendiosa em termos de energia e recursos, atualmente agravando a crise climática. Além da má alocação específica de recursos que poderiam beneficiar os pobres, os efeitos ambientais da mudança climática afetam desproporcionalmente as populações pobres.

Atualmente, a IA oferece algum trabalho para os pobres, embora de forma exploratória. A jornalista freelancer de Hong Kong, Karen Hao, relatou o trabalho “fantasma” feito em países como Venezuela e Quênia para treinar IAs. Os trabalhadores fantasmas geralmente competem entre si por contratos, já que o trabalho não é garantido ou estável. No caso de trabalhadores quenianos treinando o GPT, revisar repetidamente textos obscenos para tornar o programa mais seguro levou esses trabalhadores a problemas psicológicos. Além disso, esse trabalho de treinamento não é planejado para ser permanente; ele serve como uma solução temporária até que a IA funcione sem assistência humana.

Também é importante observar que muitos economistas preveem que a IA causará disrupções em indústrias, levando à perda de empregos, ou, como dizem, à “reespecialização”. Frequentemente, essas conversas se concentram em países ricos. Mas o que acontece quando os chatbots se tornam sofisticados o suficiente para que centros de atendimento ao cliente na Índia e nas Filipinas não sejam mais necessários? E quando a robótica e a visão computacional tornam muitos empregos de manufatura no Vietnã e em Bangladesh obsoletos? Embora o “mercado cinza” prevaleça na maior parte da economia de países mais pobres, a geração de riqueza em um mundo globalizado envolve longas cadeias de produção, muitas das quais podem ser desestabilizadas quando máquinas automatizadas se tornam mais baratas que a mão de obra humana.

A IA é uma tecnologia extremamente dispendiosa em termos de energia e recursos, atualmente agravando a crise climática – Levi Checketts


No fim das contas, a generosidade do Vale do Silício se destaca como um lembrete claro do Efeito Mateus – os ricos ficam mais ricos e os pobres mais pobres. Das dez maiores empresas por valor de mercado, oito estão envolvidas com IA de alguma forma, incluindo Taiwan Semiconductor Manufacturing Corporation e Nvidia – empresas que só recentemente chegaram ao topo devido às necessidades de hardware da IA.

Valores incorporados na IA

Muitas pessoas acreditam que tecnologias são inerentemente neutras em termos de valores. O teólogo Mark Graham argumentou, há doze anos, que a ética teológica católica da tecnologia era subdesenvolvida devido à prioridade da “ética de uso”. Nessa visão, as tecnologias são vistas como meras extensões de nossas intenções e não como elementos moralmente significativos por si mesmos.

O problema com essa ideia é que ela simplesmente não é verdadeira. Tecnologias são desenvolvidas com uma intenção em mente. É verdade que um martelo pode ser usado para matar alguém, assim como para construir uma casa, mas a intenção do fabricante do martelo é empoderar carpinteiros a construir, não assassinos a matar. E, mais importante, a tecnologia em si transmite esses valores incorporados. Seguindo o modelo “pós-fenomenológico” iniciado por Don Ihde, podemos dizer que as tecnologias mediam o mundo para nós, incluindo certos valores nessa mediação. A arquitetura é um exemplo evidente disso: Langdon Winner afirmou que Robert Moses construiu uma ponte para Long Island baixa demais para permitir a passagem de ônibus cheios de pessoas pobres e não brancas da cidade em direção à praia. Robert Rosenberger também ilustrou muitos casos de “arquitetura hostil” projetada para afastar pessoas sem-teto da vista pública.

Dado isso, alguns estudiosos sugerem o “design sensível a valores” como abordagem para a ética da tecnologia. Nessa abordagem, começamos a desenvolver tecnologias não a partir de impulsos econômicos ou simplesmente pela inovação, mas com valores éticos específicos em mente. Podemos ver ecos dessa preocupação nas discussões sobre ética da IA, em que se debate tornar a IA mais democrática ou transparente – queremos incorporar valores à IA que não estão atualmente presentes em sua operação. Também podemos ver que alguns projetos financiados por governos, como o Programa Horizonte da UE, visam alcançar resultados específicos com o desenvolvimento de IAs, como aumentar a produtividade agrícola, reduzir lesões no trabalho ou oferecer melhor assistência a pessoas com deficiência.

IHU – Existem iniciativas e possibilidades da IA ser uma ferramenta benéfica para os pobres?

Levi Checketts – É possível desenvolver IA de forma a beneficiar os pobres, mas não está claro se isso será feito. Por exemplo, Virginia Eubanks relata como o Estado de Indiana, nos EUA, desenvolveu um sistema automatizado para gerenciar seu programa de assistência social em 2008. O objetivo era reduzir a corrupção e o desperdício, mas o efeito foi que muitos pobres merecedores foram excluídos de seus benefícios devido a falhas no sistema, erros de documentação e pessoal de suporte não treinado. Muitos estudiosos apontaram como o algoritmo COMPAS, projetado para prever taxas de reincidência, reproduziu preconceitos embutidos no sistema judicial, aplicando punições mais severas a pessoas de cor. Cathy O’Neil destacou como o processamento automatizado de empréstimos tende a negar empréstimos aos pobres. Casos como esse são chamados por ela de “armas de destruição matemática” – ferramentas que se baseiam em matemática e podem causar devastação em larga escala se forem excessivamente confiáveis.

Sou cético quanto à utilidade da IA para os pobres, pois ela é fundamentada em premissas de eficiência matemática. A lógica da eficiência matemática não é uma lógica humanizada. Há uma razão pela qual contrastamos o que é frio e robótico com o que é caloroso e humano; apesar da retórica dos economistas que nos veem como atores racionais e autocentrados, muitas vezes agimos pelos outros independentemente de nosso próprio benefício, por puro altruísmo. Parte do que é ser humano inclui relacionamentos, rituais, costumes, estética e narrativas; não são meros adornos, mas essenciais, como água e ar. Quando o AlphaGo venceu Sedol Lee, a mídia coreana observou que a máquina quebrou o protocolo ao jogar enquanto Lee estava fora da sala, uma falta de etiqueta para qualquer jogador experiente de Go, embora seja algo puramente costumeiro, não inerente ao jogo.

Dentro da lógica da eficiência matemática, tudo o que é considerado supérfluo em relação ao nosso objetivo é visto como um fardo. O economista Nobel Milton Friedman dizia que os líderes empresariais tinham apenas uma obrigação – maximizar os lucros dentro dos limites da lei. Porém, como a maximização dos lucros é o padrão, muitas empresas não se importam em violar a lei, especialmente se as consequências não afetam sua lucratividade. Além disso, esse foco resulta em diversos abusos aos trabalhadores, que são geralmente considerados apenas despesas necessárias para a empresa, sem direito a compartilhar os lucros. Nos EUA, a forma mais comum e dispendiosa de roubo é o roubo de salários. Ainda assim, a maioria das empresas globais prefere terceirizar sua mão de obra para regiões com salários e padrões de segurança e ambientais mais baixos. E, embora um crítico atento possa notar que, em última análise, não é eficiente usar irresponsavelmente todos os nossos recursos naturais, o foco no lucro imediato não leva em conta os problemas de longo prazo.

Cada IA criada por uma empresa de tecnologia com fins lucrativos será desenvolvida especificamente para gerar lucro e reduzir custos. O modo como a máquina faz isso pode variar, mas o objetivo essencial é o mesmo de todos os atores em um sistema capitalista. O problema é claro: se GoogleFacebookAmazonAppleTesla e outras empresas lançarem IA, será para gerar valor ou reduzir custos. Sabine Pfeiffer argumenta que tecnologias digitais aumentam os lucros geralmente por meio da redução de custos, embora sugira que a IA possa realmente gerar valor. Como uma tecnologia cara como a IA reduziria custos? Reduzindo o custo humano, isto é, diminuindo a mão de obra – reduzindo salários, seja em números absolutos ou em relação ao PIB.

Esse é, penso eu, o cerne do problema: a noção de eficiência matemática típica da sociedade capitalista tardia é aquela que externaliza os custos sempre que possível e prioriza apenas o benefício imediato. Uma empresa cujos trabalhadores dependem de ajuda governamental pode ainda ser considerada bem-sucedida, pois transferiu seus custos para a sociedade. Não é eficiente em uma escala pura, mas é eficiente aos olhos da empresa, que transfere seus custos para o coletivo. Essa mentalidade também está presente no trabalho de programadores de IA, cujo objetivo é usar um modelo imperfeito do mundo, aplicar matemática a ele e considerá-lo como preditor da realidade.

Em termos concretos, funciona assim: o modelo que qualquer programador de IA desenvolve é baseado em suas próprias percepções do mundo, que incluem lacunas e ignorâncias. Assim, programadores de reconhecimento facial no Vale do Silício não perceberam que seus conjuntos de dados não incluíam rostos suficientes de mulheres ou minorias étnicas, por exemplo. Se o modelo for implementado, pode causar danos consideráveis antes de ser corrigido ou notado, como a polícia confiando mais nesses programas do que em seus próprios olhos. No entanto, se o programa for considerado “bem-sucedido” segundo critérios matematicamente definidos pelo criador, qualquer custo negativo adicional será considerado aceitável.

Isso implica que mesmo as iterações mais bem-intencionadas da IA buscarão marcos específicos e resultados tangíveis: prova quantitativa do “bem” que fizeram. Se a IA não atingir os objetivos específicos que o governo busca, ela pode ser encerrada. Os objetivos do programa precisam ser expressos em formas puramente matemáticas, o que se alinha facilmente ao objetivo capitalista de avaliar as coisas apenas em termos de lucro e perda. Embora isso possa ser projetado para gerar benefícios concretos para uma população específica, assume que apenas saídas quantitativas são relevantes. Os pobres que podem ser atendidos são necessariamente reduzidos a números. Nem todos os problemas enfrentados pelos pobres podem ser resolvidos com análise quantitativa.

Assim, destaco o insight do Pe. Jon Sobrino, ecoando seu mentor Ignacio Ellacuría. Como a Igreja Católica faz desde os anos 1960, Sobrino critica a ideia de que a pobreza global é apenas uma questão do que os países desenvolvidos definem como “desenvolvimento”. Desenvolvimento significa imitar o estilo dos ricos e industrializados, o que, como sabemos pela crise ambiental, é insustentável. Sobrino chama esse modelo de Civilização da Riqueza em contraste com a Civilização da Pobreza, que prioriza direitos humanos e comunidade. Embora esteja claro, como apontam alguns estudiosos de direitos humanos como Jack Donnelly, que o pleno apoio aos direitos humanos pode exigir certo nível de desenvolvimento, há uma orientação fundamentalmente diferente em desenvolver com o propósito de atender direitos humanos, em vez de desenvolver por desenvolver.

A IA como ferramenta de desenvolvimento só pode medir direitos humanos de forma aproximada, estando sujeita a falhas se os modeladores não compreenderem plenamente a situação real. Isso é provável enquanto, mais uma vez, ecoando o testemunho profético da teologia da libertação, os pobres permanecerem sem nome e voz. Se os pobres não tiverem a chance de defender a si mesmos perante outros humanos, que podem responder ao apelo que lhes é feito pela dignidade inerente aos pobres, então eles serão relegados a estatísticas.

A IA é desenvolvida em sociedades que desvalorizam os pobres. Nos EUA, por exemplo, país líder no desenvolvimento de IA, a aprovação moral é quase sinônimo de riqueza material. Um homem rico é um bom homem, e os pobres e sem-teto são considerados pobres de caráter também. A ética protestante de Max Weber é mais visível nesse cenário. Nos EUA, os pobres são vistos como merecedores de seu destino, onde empresários do Vale do Silício reclamam da presença de sem-teto deslocados pelo aumento do custo de vida. Assim, é duvidoso que países como os EUA se interessem em desenvolver IA com o objetivo de ajudar os pobres.

IA Antropomórfica

O perigo mais pernicioso da IA é a forma como tendemos a antropomorfizá-la. Mesmo o termo “inteligência” envolvido em sua designação é usado para sugerir que a IA é “algo como nós”, já que descrevemos coisas com as quais nos identificamos como “inteligentes”. O filósofo David Gunkel torna isso explícito. A discussão sobre os direitos da IA está embasada na suposição de que inteligência corresponde a agência moral e paciência, como demonstrado, por exemplo, no movimento pelos direitos dos animais, seguindo Peter Singer. Nessa visão, se a IA demonstrar capacidades humanas suficientes (particularmente o que definimos como inteligência), então ela deve receber status moral.

Essa tendência está bem documentada ao longo de nossas tradições morais. Um panorama das teorias morais é ilustrativo: Kant pensa que apenas seres racionais devem ser tratados como fins em si mesmos; Mill acredita que a capacidade de sentir prazer, com graus variados de acordo com o crescimento intelectual de cada um, é o padrão para a paciência moral; Tomás de Aquino nota que a dignidade humana se deve ao fato de sermos racionais como Deus; Aristóteles acredita que a mais elevada forma de vida é a contemplação da pura sabedoria. Normalmente, em ética ambiental, por exemplo, discutiríamos tudo isso como indicativo de antropocentrismo. Mas mesmo modelos que não são estritamente antropocêntricos tendem a repetir essa ideia, como indicado por grande parte do movimento pelos direitos dos animais, que valoriza os animais principalmente na medida em que compartilham certas capacidades conosco.

Vários teóricos críticos apontaram que esse tipo de lógica sempre teve uma ordem hierárquica. Feministas, por exemplo, observam que, em muitas expressões típicas, a racionalidade é associada ao ser masculino, enquanto o animalismo é associado ao ser feminino, levando a um valor de fato mais elevado para os homens do que para as mulheres. O movimento eugenista também afirmou que diferentes “raças” eram resultado de uma melhor ou pior reprodução. Assim, essa preferência por humanos “racionais” sempre tem o efeito de criar uma ordem desigual e favorecer alguns em detrimento de outros.

Há menos de cinquenta anos, países como os Estados Unidos ainda tinham leis que permitiam a esterilização forçada de pessoas com doenças mentais, deficiências mentais ou outros traços considerados “indesejáveis”. A Islândia eliminou quase todos os casos de síndrome de Down hoje por meio de aborto seletivo. Enquanto os EUA se preparam para outra presidência de Donald Trump, as críticas a ele confundem suas falhas morais com falhas mentais. Não estamos tão distantes do que consideramos barbárie. Nossa valorização de uma certa imagem da mente racional torna-se para nós um sinônimo do que é bom e belo, e a maioria de nós aceita isso sem críticas. Mesmo eu, ciente desse problema, frequentemente me pego usando termos como burro, idiota, louco, insano e estúpido para dizer que algo é injusto, prejudicial ou simplesmente errado.

Isso é um problema porque as máquinas que estamos discutindo foram feitas para ser “inteligentes”, e essa característica das máquinas é concebida para sugerir que elas são, de alguma forma, “melhores”. Então, quando surgem discussões sobre direitos dos robôs, vemos que bondade, inteligência e direitos estão inextricavelmente entrelaçados em um único fio. Não perguntamos se uma máquina de lavar ou um soldador industrial deveriam ter direitos humanos. Assumimos que uma IA poderia ter direitos porque se assemelha aos seres humanos naquilo que consideramos relevante para a concessão de direitos, ou seja, como agentes “inteligentes”.

Modelos de inteligência

Mas qual é o modelo de inteligência que a IA representa? Ela é essencialmente composta por algoritmos complexos, que, por sua vez, são apenas equações matemáticas complexas. Em outras palavras, a inteligência modelada pela IA é, em sentido estrito, inteligência matemática. Isso reflete uma tendência das culturas ocidentais desde a Revolução Científica, e uma tendência que, no século passado, está ligada, não surpreendentemente, à eugenia. O QI é um valor numérico atribuído às pessoas com base na capacidade de completar um teste padronizado dentro de um certo limite de tempo. Muitas das questões envolvem raciocínio matemático e quantitativo. Perguntas sobre literatura e linguagem também aparecem em alguns testes, mas estas devem ser respondidas com uma “solução” correta específica, então os problemas aparecem em formato matemático. Colocar isso como o padrão definitivo de inteligência é, obviamente, problemático: não apenas o pensamento criativo ou soluções alternativas são considerados “não inteligentes” por essa medida, mas pior ainda é que isso requer um modelo padronizado de educação.

Assim, o modelo de “inteligência” da IA, que é sua qualificação para direitos, é um modelo baseado em sistemas educacionais burgueses. Afirmar que a linguagem deveria ter uma forma específica, por exemplo, assume que a linguagem falada pelo povo comum, muitas vezes classificada com termos pejorativos para indicar seu status vulgar, é considerada um sinal de falta de inteligência. Então, para adicionar outro ingrediente à fórmula, inteligência, consciência e direitos também estão ligados a modelos educacionais. Os não (ou sub) educados são vistos pela elite escolar como crianças que precisam de um cuidado paternalista.

Teologia da Libertação

Sou cético em relação ao movimento da Teologia da Libertação. Por melhores que fossem as intenções do falecido Gustavo Gutierrez ao falar sobre a falta de voz dos pobres, a posição que ele e outros padres educados na Europa assumiram era paternalista. De fato, o processo de “conscientização” que Gutierrez enfatiza, um modelo que ele tomou do pedagogo brasileiro Paulo Freire, assume que o profissional educado e bem-intencionado está na posição correta para informar os pobres sobre o quão terrível é sua condição. Como Gayatri Spivak observou provocativamente, “o ventriloquismo do subalterno é o trunfo dos intelectuais de esquerda” – aqueles que desejam ajudar os pobres geralmente assumem que sabem melhor como fazer isso do que os próprios pobres e assumem que os pobres devem receber a educação adequada para refletir o que as elites bem-intencionadas veem de si mesmas.

Os engenheiros e designers de IA criam um programa que é uma imagem espelhada de como eles se veem. O padrão para seu sucesso como uma máquina inteligente é determinado pelos programadores com base em sua própria compreensão de inteligência. É a imagem narcisista deles construída em silício. Embora nenhuma IA tenha ainda alcançado esse padrão, os engenheiros de IA continuam otimistas de que possuem a visão correta, apenas precisam fazer o avanço certo. Dreyfus criticou isso em seu livro What Computers Can’t Do, para a irritação de vários pioneiros da IA, quando os problemas que enfrentaram se mostraram mais difíceis do que pensavam inicialmente. Mas nos últimos anos, o aprendizado de máquina levou a programas muito mais sofisticados, e demonstrações de prova de conceito como AlphaGo, ou aplicações no mundo real, como o premiado AlphaFold, dão algum peso a esses sonhos androides.

Inteligência Artificial Geral

Embora alguns pesquisadores de IA permaneçam ancorados sobre as limitações do aprendizado de máquina atual, muitas das vozes mais altas, incluindo Elon Musk e Sam Altman, imaginam que em breve alcançarão a Inteligência Artificial Geral – IAG, o termo atual que substitui a antiga IA “à moda antiga” ou a agora demasiadamente diversa IA. E seguindo as profecias de Nick Bostrom, eles se preocupam e esperam que a IAG rapidamente se torne Super IAG, uma inteligência artificial muito mais inteligente que nós. A linguagem que eles usam para sugerir o que isso significa – como um humano para uma formiga – reforça a visão profundamente problemática de inteligência que sustenta toda a pesquisa em IA. As preocupações morais que têm – a ameaça de uma crise existencial ou a promessa de uma governança utópica – são maneiras de sugerir que uma super IAG será moralmente superior a nós, da mesma forma que somos moralmente superiores (ou acreditamos ser) aos insetos, e revela suas próprias falhas éticas.

Isso estabelece um espectro de valor moral, onde quanto mais “inteligente” um ser é, com base em uma medida quantitativamente definida, mais “bom” e digno ele é, enquanto quanto menos “inteligente” ele é, menos digno se torna. Se os pobres carecem de recursos educacionais, ou se condições de fome e precariedade levam a um funcionamento neural subótimo, ou se fatores genéticos ou epigenéticos limitam sua capacidade de aprendizagem, ou se seu uso da linguagem é considerado rude, ou se a necessidade de sobrevivência os leva a priorizar ganhos de curto prazo em detrimento do retorno de longo prazo, ou se a experiência da cultura capitalista os leva a ser cautelosos ao arriscar o pouco que possuem, é provável que ocupem uma posição “inferior” na escala em comparação com nossas máquinas. Se a implicação não está clara, os EUA viram a revogação da proibição de casamentos inter-raciais anos antes de ocorrer a revogação para esterilização forçada de pessoas com doenças mentais.

Um amigo explicou esse problema em termos simples: é perturbador discutir a concessão de direitos a máquinas que não possuem qualquer tipo de autoconsciência enquanto há muitas categorias de humanos que ainda não usufruem desses direitos. Uma versão dessa frustração foi expressa sete anos atrás, quando o governo da Arábia Saudita concedeu cidadania a Sophia, uma ginoide desenvolvida aqui em Hong Kong, enquanto as mulheres desse país careciam de direitos básicos. Vivemos em um mundo onde os pobres e outros marginalizados frequentemente enfrentam os seguintes problemas: fome, desnutrição, tráfico humano, exposição a produtos químicos nocivos, falta de saneamento, escassez de água potável, violência, abuso de substâncias, doenças específicas (incluindo tuberculose, malária, AIDS, esquistossomose, doenças cardíacas, pneumoconiose e obesidade). Discutir a concessão de direitos a um programa de computador como se fosse um cidadão burguês da União Europeia é absolutamente absurdo, considerando essa realidade. Para citar Jesus no sermão da montanha, “tira primeiro a trave do teu olho, e então verás claramente para tirar o cisco do olho de teu irmão”. Em outras palavras, devemos conceder direitos humanos a todos os humanos antes de estendê-los a não humanos.

Se o problema fosse tão simples, esta seria a conclusão. Mas o que fica sem resposta é a incômoda pergunta sobre por que alguém consideraria a concessão de direitos à IA mais urgente do que resolver os problemas humanos ao nosso redor. O teólogo Philip Hefner articulou a ideia com mais clareza ao afirmar que a IA é um “tecnoespelho” no qual nos vemos. Observe que, na visão cristã, o que confere dignidade aos seres humanos é nosso status como imago Dei – sermos a imagem de Deus. Nossa imagem, então, assume um papel igualmente digno. No entanto, a alusão que deveríamos recordar na metáfora de Hefner é o mito de Narciso, cuja obsessão com seu próprio reflexo resultou em sua própria destruição. A IA como “tecnoespelho” tem a função de refletir nosso olhar de volta para nós mesmos, um processo que o filósofo católico Jean-Luc Marion chama de idolatria. A iconografia, por outro lado, ocorre quando uma imagem aponta para algo além de si mesma, para algo inefável. Ao escrever sobre o pensamento de Emmanuel LevinasJacques Derrida observa que, quando falamos do “Outro”, não nos referimos a um “alter ego”, ou seja, não a um “outro como eu”. Em vez disso, o Outro é totalmente diferente de mim, e, em sua absoluta alteridade, devo reconhecer a responsabilidade moral que tenho em relação a alguém que não pode ser reduzido à minha própria imagem.

Aqui reside a diferença fundamental entre uma ordem moral que considera a IA como paciente moral e uma ordem moral que reconhece nossas falhas em relação aos pobres. A IA como paciente moral é uma variação de Frankenstein ou Pinóquio. Reconhecemos um ser não totalmente humano que ganha o respeito dos humanos porque o criamos e projetamos nele uma parte de nós. Assumimos o papel paternalista e ensinamos esse ser a ser como nós, e assim ganhamos nossa própria aprovação moral. Por outro lado, temos o gênero mais perturbador da ficção do duplo, como em William Wilson de Poe ou em O Duplo de Dostoiévski. Em tais histórias, precisamos lidar com um outro que pode parecer comigo, mas não é igual a mim e cuja existência me faz sentir desconfortável. Lutamos contra ele porque não suportamos viver em um mundo onde ele existe ao nosso lado e ameaça a autoimagem que prezamos tanto.

Devemos conceder direitos humanos a todos os humanos antes de estendê-los a não humanos – Levi Checketts

A IA é retratada como um reflexo limpo e eficiente do que imaginamos ser. Os pobres, por sua vez, nos aparecem como versões sujas, doentes e covardes daquilo que realmente somos. Uma IA não sofre de esquizofrenia ou abstinência de drogas; não comete pequenos delitos ou gafes públicas; não exige auxílio governamental ou assistência de caridade; não rejeita sua ajuda superficial e presunçosa; não dorme nos bancos do seu parque, não bate em seus filhos nem cambaleia embriagada pelas ruas; não tem pulgas ou piolhos; não morre por infecção, overdose ou acidente de trabalho; não tem odor nem cria incômodo com sua presença pública. E, por todas essas razões, a IA é muito mais confortável como “Outro” (ou seja, um alter ego) para as elites educadas reagirem do que os pobres. Ser pobre, com todas as misérias que isso acarreta, é o maior desvalor de um sistema capitalista. As classes altas relacionam-se com os pobres apenas como aqueles que devem ser evitados, para que a contaminação não se instale. Os pobres podem ser miseráveis, mas, segundo essa visão, merecem seu destino – pensar o contrário poderia levar alguém a questionar por que eles merecem viver uma vida melhor.

IA e fantasia capitalista

A Inteligência Artificial é o ápice da fantasia capitalista. Ela representa a expectativa de acumular riqueza ad nauseam e uma classe trabalhadora sem os custos de mão de obra. É, claro, uma fantasia, pois mais de 200 anos de capitalismo e avanço científico deixaram claro que o crescimento infinito é impossível, que são os pobres que geram a riqueza real e que o custo da IA geralmente não compensa. Do ponto de vista moral, ficamos ainda mais alarmados, pois as fantasias em torno da IA tendem a prejudicar os pobres ao privá-los de direitos, desvalorizá-los e desumanizá-los, enquanto atribuem benefícios a máquinas sem consciência. Esse entendimento nos exige uma análise mais profunda da pobreza do que a maioria está disposta a fazer; devemos considerá-la não apenas como uma condição de falta de dinheiro, mas como uma posição contextualizada socialmente, que inclui modos de socialização, processos de legitimação ou deslegitimação de códigos de conduta, padrões éticos, impactos psicológicos e outros fatores, todos profundamente desprezados pela cultura dominante – aspectos que, notavelmente, estão ausentes na programação da IA.

A Inteligência Artificial é o ápice da fantasia capitalista. Ela representa a expectativa de acumular riqueza ad nauseam e uma classe trabalhadora sem os custos de mão de obra – Levi Checketts

Mas isso não significa que a IA seja uma tecnologia totalmente inútil. O próprio Karl Marx acreditava que as tecnologias da burguesia impulsionariam a revolução sem classes. A IA executa tarefas quantitativas com muita eficiência e tem se mostrado de enorme valor para cientistas, médicos, demógrafos e outros. Portanto, encerro com um pensamento otimista. Se pudermos dissociar a IA das questões de direitos, podemos encontrar formas de aplicá-la como uma ferramenta para problemas morais específicos, nos quais precisamos de insights. Isso deve sempre ser feito com plena consciência dos benefícios e falhas da IA, para evitar a tentação da aceitação acrítica e da confiança injustificada. Podemos também preferir mudar a terminologia, pois “inteligência” implica um certo fundamento metafísico e metaético, com suas associações. Finalmente, precisamos reavaliar nossos próprios padrões de dignidade moral e permitir que todos os humanos tenham dignidade, independentemente de quão bem demonstrem traços semelhantes aos de uma IA.

IHU – UNISINOS
https://www.ihu.unisinos.br/646364-a-ia-e-desenvolvida-em-sociedades-que-desvalorizam-os-pobres-entrevista-especial-com-levi-checketts