NOVA CENTRAL SINDICAL
DE TRABALHADORES
DO ESTADO DO PARANÁ

UNICIDADE
DESENVOLVIMENTO
JUSTIÇA SOCIAL

Empresa indenizará ex-empregado por roda de oração antes do expediente

Empresa indenizará ex-empregado por roda de oração antes do expediente

Imposição velada

Para magistrada, prática viola liberdade religiosa e representa constrangimento ilegal.

Da Redação

Empresa de materiais de construção deverá indenizar ex-funcionário em R$ 5 mil por danos morais devido à imposição velada de participação em orações diárias antes do expediente. A sentença é da juíza do Trabalho Lais Pahins Duarte, da 2ª vara do Trabalho de Campo Grande/MS, que considerou a prática forma de intolerância religiosa, violando direitos constitucionais do trabalhador.

O ex-funcionário ajuizou a ação trabalhista alegando diversas irregularidades no contrato de trabalho, incluindo acúmulo de funções, horas extras não pagas e danos morais. Entre os pedidos, destacou que era obrigado a chegar antes do horário contratual para participar de rodas de oração.

Em defesa, a empresa argumentou que as orações faziam parte da cultura organizacional e que a participação dos funcionários não era compulsória.

No entanto, depoimentos colhidos em audiência indicaram que a prática era recorrente e que nenhum funcionário se recusava a participar, o que levou à conclusão de que havia  imposição velada.

Empresa realizava rodas de oração com os funcionários antes do expediente.

Após a fase de instrução, com depoimentos do reclamante, do preposto da empresa e de testemunhas, a magistrada proferiu sentença reconhecendo a violação ao direito fundamental à liberdade religiosa e condenando a empresa ao pagamento da indenização por danos morais.

Na decisão, a juíza ressaltou que a liberdade de crença é um direito assegurado pela CF e que o empregador tem a obrigação de proporcionar um ambiente de trabalho livre de práticas discriminatórias.

“A Constituição assegura a liberdade de consciência e o livre exercício de cultos religiosos, sendo obrigação do empregador zelar por um ambiente de trabalho sem práticas discriminatórias”, afirmou a juíza.

A magistrada também citou jurisprudência do TRT da 9ª região, que reconhece a imposição de práticas religiosas no ambiente corporativo como conduta passível de indenização por danos morais.

Processo: 0024223-80.2024.5.24.0002
Veja a sentença:chrome-extension://efaidnbmnnnibpcajpcglclefindmkaj/https://www.migalhas.com.br/arquivos/2025/2/70B83C3B9A28DF_Documento_ac7f4a9.pdf

MIGALHAS
https://www.migalhas.com.br/quentes/425276/empresa-indenizara-ex-empregado-por-roda-de-oracao-antes-do-expediente

Empresa indenizará ex-empregado por roda de oração antes do expediente

TST submete 14 temas à sistemática de recursos repetitivos

Precedentes

Medida busca uniformização da jurisprudência em temas recorrentes.

Da Redação

O Pleno do TST aprovou, nesta segunda-feira, 24, a submissão de 14 novos temas à sistemática dos recursos de revista repetitivos. A decisão tem o objetivo de garantir a uniformização da jurisprudência sobre questões recorrentes na Justiça do Trabalho, proporcionando maior previsibilidade e eficiência no julgamento dos casos.

A decisão do Pleno do TST reforça o compromisso da Corte com a unificação do entendimento jurisprudencial, contribuindo para a estabilidade e previsibilidade nas relações de trabalho e no sistema judiciário trabalhista.

TST uniformizará entendimento sobre 14 novos temas.
Veja os temas abaixo:

Recolhimento de custas e depósito recursal

Questão jurídica:
É válido o recolhimento do preparo recursal por pessoa estranha à lide?

Processo: 0000026-43.2023.5.11.0201
Desconsideração da personalidade jurídica

Questão jurídica:
“A desconsideração da personalidade jurídica no direito do trabalho é regida pela teoria maior ou pela teoria menor? É possível violação direta e literal à Constituição Federal nessa matéria para conhecimento do recurso de revista na fase de execução?”.

Processo: RR-0000051-62.2013.5.08.0113
Enquadramento do grau de insalubridade por em norma coletiva

Questão jurídica:
“É válida norma coletiva que dispõe sobre o enquadramento do grau de insalubridade para pagamento do respectivo adicional?”

Processo: RR-0000148-36.2023.5.12.0037
Intervalo interjornada de portuário avulso

Questão jurídica:
“Definir se são devidas horas extras ao trabalhador portuário avulso pela inobservância do intervalo interjornadas”.

Processo: RRAg-0001058-29.2020.5.12.0050
Repouso semanal remunerado em regime 5X1

Questão jurídica:
No regime de trabalho 5×1, a não coincidência do repouso semanal remunerado com o domingo, a cada três semanas de trabalho, implica pagamento em dobro deste dia, por aplicação analógica do art. 6º, § único, da Lei nº 10.101/2000 (atividades de comércio) e da incidência da Súmula nº 146 do TST?

Processo: RRAg – 0001583-45.2022.5.12.0016
Conversão de pedido de demissão em rescisão indireta

Questão jurídica:
“Ainda que inexista vício de consentimento do empregado, é possível converter judicialmente pedido de demissão em rescisão indireta no caso de falta grave cometida pelo empregador (CLT, art. 483)?”.

Processo: RR-0010045-06.2024.5.03.0134
Indenização por dano material em parcela única

Questão jurídica:
“No arbitramento de indenização, em parcela única, referente à pensão vitalícia por incapacitação permanente do empregado, por acidente do trabalho ou doença ocupacional, com fulcro no art. 950, § único, do Código Civil, deve o juiz aplicar um redutor do quantum indenizatório?”

Processo: RRAg-20040-50.2023.5.04.0231
Substituição do depósito recursal por seguro garantia ou fiança

Questão jurídica:
“Na substituição do depósito recursal, a fiança bancária ou o seguro garantia judicial devem ter prazo de validade indeterminado ou condicionado até a solução final do litígio, ou podem ter prazo determinado de validade?”

Processo: RR 20332-13.2023.5.04.0012
Responsabilidade subsidiária em contrato de facção

Questão jurídica:
“O contrato mercantil na modalidade por facção enseja responsabilidade pelo contratante nos moldes do item IV da Súmula n.º 331 do TST?”

Processo: RR-0020732-51.2022.5.04.0371
Adicional por tempo de serviço da CEF

Questão jurídica:
“É possível a inclusão de outras verbas de natureza salarial, previstas em norma regulamentar da Caixa Econômica Federal, na base de cálculo do Adicional por Tempo de Serviço (ATS)?”

Processo: RR-0020577-72.2022.5.04.0751
Adicional de periculosidade para tanque suplementar

Questões jurídicas:
“a) se é devido adicional de periculosidade aos motoristas, diante da existência de tanque suplementar nos veículos, para uso próprio, com capacidade superior a 200 litros, nas situações fáticas anteriores à edição da Portaria SEPRT, nº 1.357/19, DOU de 10.12.2019, que alterou a NR16 DO MTb;
b) se após a edição da Portaria SEPRT nº 1.357/19, DOU de 10.12.2019, que alterou a NR16 DO MTb, no item 16.6.1.1, deixou de ser devido adicional de periculosidade aos motoristas, qualquer que seja a capacidade de armazenamento dos tanques de combustível para uso próprio, originais de fábrica ou suplementares, desde que estes sejam certificados pelo órgão competente”

Processo: RR-0020969-89.2022.5.04.0014
Prescrição intercorrente

Questão jurídica:
“A prescrição intercorrente no direito do trabalho somente incide quando o título executivo judicial é posterior à Lei nº 13.467/2017, ou basta que a intimação do exequente para impulsionar a execução seja posterior à vigência da lei?”

Processo: RR-45200-20.2003.5.02.0042
Seguro garantia judicial sem prova de pagamento do prêmio

Questão jurídica:
“É obrigatória a comprovação do pagamento do prêmio para validade do seguro garantia judicial?”

Processo: RR-101113-51.2019.5.01.0010
Suspensão do prazo prescricional prevista na lei 14.010/20

Questão jurídica:
“A suspensão dos prazos prescricionais prevista na Lei nº 14.010/2020 é aplicável ao Direito do Trabalho, tanto no caso de prescrição bienal quanto quinquenal?”

Processo: RR-1002342-38.2022.5.02.0511

MIGALHAS
https://www.migalhas.com.br/quentes/425287/tst-submete-14-temas-a-sistematica-de-recursos-repetitivos

Empresa indenizará ex-empregado por roda de oração antes do expediente

Correição parcial na Justiça do Trabalho: cabimento

Reflexões Trabalhistas

A correição parcial é remédio extraordinário, do qual juízes não gostam e que deve ser apresentada em casos estritamente previstos na lei e nos regimentos internos dos respectivos tribunais, que são muito rigorosos na sua apreciação. São raríssimas situações de procedência de correição, que, na verdade constitui “puxão de orelha” no magistrado autor do ato impugnado. Por outro lado, uma correição procedente pode atrapalhar a vida funcional do respectivo juiz.

Por isso, a correição parcial constitui-se em medida excepcional, que tem como finalidade corrigir erros ou abusos cometidos pelos juízes dentro do processo, que provoquem inversão tumultuária (“error in procedendo”), quando, para o caso, não haja recurso cabível ou outro meio processual capaz de corrigir o ato.

A correição parcial é destinada a sanar omissões do juízo ou atos e despachos que alterem a boa ordem natural do processo (error in procedendo), gerando tumulto processual capaz de causar danos à parte. Error in judicando não é passível de correção por meio da correição parcial, importante diferença que muitos advogados não observam.

Por isso, ao advogado da parte interessada cabe, analisando cada ato processual supostamente prejudicial ao seu cliente, adotar, de imediato, as medidas processuais cabíveis. Se o erro for de procedimento/tumultuário, cabe correição parcial em cinco dias da ciência do ato, mas se o ato for de julgamento/entendimento do juiz, não cabe correição, mas, as medidas processuais previstas na lei e no regimento interno do respectivo tribunal.

Conforme estabelece a CLT (artigo 893, § 1º), os incidentes do processo são resolvidos pelo próprio juízo ou tribunal, admitindo-se a apreciação do merecimento das decisões interlocutórias somente em recurso da decisão definitiva.

O Regimento Interno do TRT-15, por exemplo, diz no artigo 35 que “A correição parcial, não havendo recurso específico, é cabível para corrigir erros, abusos e atos contrários à boa ordem processual, ação ou omissão que importe erro de procedimento.

Na forma do artigo 37 do referido RI, estando a petição regularmente formulada e instruída, o desembargador corregedor regional poderá ordenar, desde logo, a suspensão do ato motivador do pedido, quando for relevante o fundamento e se do ato impugnado puder resultar a ineficácia da medida, caso seja deferida.

A petição poderá ser liminarmente indeferida se não preenchidos os requisitos do artigo 36 ou se o pedido for manifestamente intempestivo ou descabido (§ único).

Processada a medida e verificando a necessidade, o desembargador corregedor regional solicitará informações ao juiz que estiver na titularidade da Vara do Trabalho, devendo este, se for o caso, dar ciência ao juiz que praticou o ato impugnado (artigo 38).

Se solicitadas, as informações serão prestadas no prazo de cinco dias, podendo, entretanto, o juiz, no mesmo prazo, reconsiderar o despacho ou sanar a omissão, hipótese em que dará ciência ao corregedor, para que este determine o arquivamento da medida (§ único).

Não se conformando com a decisão do corregedor, o corrigente poderá interpor agravo regimental para o Órgão Especial, que o decidirá em última instância (artigo 39).

Comunicada a decisão ao juiz de primeiro grau, este deverá dar-lhe imediato cumprimento, se favorável à parte, sob pena de responsabilidade (artigo 40).

A decisão seguinte bem lustra sobre o cabimento ou não da correição parcial:

“EMENTA: AGRAVO REGIMENTAL EM CORREIÇÃO PARCIAL. NÃO CONHECIMENTO DA EXCEÇÃO DE PRÉ-EXECUTIVIDADE. NATUREZA JURISDICIONAL. A decisão que não conhece a exceção de pré-executividade possui natureza jurisdicional, passível de reexame por meio processual específico. Ausentes, assim, os requisitos previstos no art. 35 do Regimento Interno, nega-se provimento ao agravo regimental fundamentado no cabimento da medida correicional para atacar o referido ato” (Proc. 0000171-80.2013.5.15.0899 – ÓRGÃO ESPECIAL).

É preciso que se tenha muita cautela na interposição de correição, porque, se indeferida ou julga improcedente, a situação torna-se desagradável para o advogado da parte corrigente, principalmente quando se tratar de profissional atuante na comarca.

Não é que não se deva usar do remédio correicional, mas, é preciso estudar bem o caso, porque a via da correição é muito estreita e, como se vê no dia a dia, a maioria dos atos que se busca corrigir perante os tribunais, constituem erros de julgamento, que deverão ser atacados de imediato pelos meios processuais cabíveis previstos na CLT e em demais leis processuais.

Empresa indenizará ex-empregado por roda de oração antes do expediente

Quanto ganham os trabalhadores no Brasil? Média de SP é quase o dobro do que no Maranhão, diz IBGE

Os trabalhadores brasileiros receberam, em média, cerca de R$ 3.225 por mês em 2024. Esse foi o rendimento real habitual de todos os trabalhos registrado pela Pesquisa Nacional por Amostra de Domicílios (PNAD) Contínua, do IBGE.

O valor é 3,7% maior do que o estimado em 2023. E, frente a 2012, quando o IBGE começou a calcular esses dados, houve um aumento de 10,1%.

Esse avanço, porém, não é realidade em todos os estados brasileiros. No Amazonas e em Roraima, por exemplo, o rendimento dos trabalhadores diminuiu de 2023 para 2024. Nesses locais, os maiores valores da série foram registrados ainda no início da pesquisa. (veja o gráfico abaixo)

Por outro lado, 13 estados tiveram o maior rendimento médio de toda a série histórica no ano passado.

Isso ocorreu em Rondônia, Tocantins, Maranhão, Rio Grande do Norte, Alagoas, Sergipe e Espírito Santo, além de todos os estados do Sul e do Centro-Oeste.

Os trabalhadores do Maranhão seguem ganhando menos do que em qualquer outro estado brasileiro, apesar do crescimento em 2024.

O valor (R$ 2.049) é pouco mais da metade do registrado em São Paulo, que tem o segundo maior rendimento (R$ 3.907) do país, atrás apenas do Distrito Federal.

  • 🔎 Todos os valores usados na reportagem são referentes ao rendimento médio real (descontada a inflação) recebido habitualmente pelas pessoas ocupadas por todos os trabalhos que elas tinham na semana de referência da pesquisa.

Segundo o economista Rodolpho Tobler, do FGV IBRE, os baixos rendimentos registrados no Norte e Nordeste podem ser explicados, em parte, pelo grande número de trabalhos informais, que costumam ser associados a salários menores.

Em 2024, sete estados brasileiros registraram taxas anuais de informalidade maiores que 50%: Pará, Piauí, Maranhão, Ceará, Amazonas, Bahia e Paraíba — todos do Norte e Nordeste.

“Também tem a ver com a estrutura da atividade econômica nessas regiões, mais centrada em serviços e com menos indústrias, que geralmente proporcionam um salário mais elevado”, explica o especialista.

O alto rendimento no Distrito Federal, por sua vez, está relacionado ao trabalho no setor público. “É onde fica o governo federal, tem os ministérios, muitas estatais, com empregos associados a pessoas de maior escolaridade”, aponta o economista da FGV.

Assim, apesar de importantes para o mapeamento do mercado de trabalho no Brasil, as médias nacionais de rendimento, desemprego e ocupação não refletem a realidade de todo o país.

Para Tobler, é necessário desenvolver políticas públicas com um “olhar regional”.

“Considerando que o Brasil é um país de tamanho continental, tem muita desigualdade. E nem sempre uma política pública pensada no nível nacional funciona no nível regional”, completa.

G1

https://g1.globo.com/economia/noticia/2025/02/21/quanto-ganham-os-trabalhadores-no-brasil-media-de-sp-e-quase-o-dobro-do-que-no-maranhao-diz-ibge.ghtml

Empresa indenizará ex-empregado por roda de oração antes do expediente

“A IA é desenvolvida em sociedades que desvalorizam os pobres”. Entrevista especial com Levi Checketts

As empresas que desenvolvem modelos de Inteligência Artificial – IA prometem inovações, facilidades à vida cotidiana e maneiras de tornar o trabalho mais simples, mas nestas discussões há o outro lado: a IA traz consigo diversas contradições em relação aos impactos sociaisambientais e o mundo do trabalho. É a partir destas problemáticas que o Prof. Dr. Levi Checketts ministrou sua palestra intitulada “Tecnologia e desigualdade multidimensional. IA e a experiência da pobreza”. Ela faz parte do ciclo de estudos Inteligência Artificial. Potencialidades, desigualdades e o risco existencial humano do Instituto Humanitas Unisinos – IHU.

Em sua fala, Levi Checketts afirmou que os pobres são excluídos das discussões sobre IA. “A IA é desenvolvida em sociedades que desvalorizam os pobres. Nos EUA, por exemplo, país líder no desenvolvimento de IA, a aprovação moral é quase sinônimo de riqueza material. Um homem rico é um bom homem, e os pobres e sem-teto são considerados pobres de caráter também”, pontua.

Para ele, é difícil discutir direitos a máquinas e a IA enquanto há humanos que não usufruem de direitos humanos básicos para viver. “Devemos conceder direitos humanos a todos os humanos antes de estendê-los a não humanos”. A IA é vista como uma extensão do ser humano, uma imagem limpa do que imaginamos ser e é por isso que ela é mais confortável como alter ego para as elites do que os pobres. “Ser pobre, com todas as misérias que isso acarreta, é o maior desvalor de um sistema capitalista. As classes altas relacionam-se com os pobres apenas como aqueles que devem ser evitados, para que a contaminação não se instale”, diz.

Em relação às mudanças climáticas, Levi afirma que a ideia de que a IA resolverá todos os problemas do mundo é um erro. “Quando Eric Schmidt, ex-CEO do Google, afirma que a IA é a única solução para a mudança climática, devemos protestar vigorosamente: a IA é uma tecnologia extremamente dispendiosa em termos de energia e recursos, atualmente agravando a crise climática”.

A seguir, publicamos, no formato de entrevista, a conferência “Tecnologia e desigualdade multidimensional. IA e a experiência da pobreza”.

Levi Checketts é doutor em Filosofia e Teologia e professor da Hong Kong Baptist University, na China. Autor de “Poor Technology: Artificial Intelligence and the Experience of Poverty” [Tecnologia pobre: inteligência artificial e a experiência da pobreza, em tradução livre].

IHU – O que significa pensar no futuro da inteligência artificial?

Levi Checketts – Como professor universitário, tenho encontrado inúmeras declarações sobre o futuro inevitável da IA. Nossos coordenadores de pesquisa proclamam que a IA é o futuro para o qual devemos nos preparar. Centenas de milhares, ou até milhões, de dólares de Hong Kong estão destinados a projetos de pesquisa em IA. Desenvolvemos uma “Estratégia de IA” para nossos professores e alunos, focada em “equipar” os estudantes para usarem IA em suas carreiras. E os próprios alunos compraram essa ideia de corpo e alma. Já li diversos artigos nos últimos dois anos que começam com alguma variação da frase: “A Inteligência Artificial é importante para o nosso futuro”.

O estudioso de Ciência, Tecnologia e Sociedade Lee Vinsel define essa atenção como “criti-hype”. A atenção dada à IA nos últimos anos a promove como a tecnologia definitiva. Luciano Floridi e outros recentemente apresentaram um estudo mostrando como o conceito de “ética da IA” se tornou um campo incrivelmente popular, com literalmente milhares de novos empregos sendo abertos na Europa nos últimos dois anos. Por que tantos chamados especialistas em ética? Porque, como observa Vinsel, a IA é anunciada simultaneamente como a tecnologia mais importante para nosso novo futuro e como uma tecnologia potencialmente catastrófica.

Uma análise mais sóbria, Vinsel argumenta, indicaria que a disrupção da IA precisaria ser uma disrupção prolongada para ser realmente impactante. Embora os automóveis tenham sido certamente fonte de muita preocupação social em seus primeiros anos, não transformaram as cidades em selvas de concreto distópicas por algumas décadas. Portanto, em vez de previsões grandiosas sobre como a IA mudará todos os aspectos da existência humana, desde o trabalho mais tedioso até nossos relacionamentos, nosso entretenimento e até nossas crenças religiosas, deveríamos observar as formas como a IA está mudando as coisas.

Ética da IA

Os verdadeiros especialistas em ética da IA, e não apenas advogados, agentes de opinião pública ou fãs de ficção científica tentando se aventurar na filosofia, observaram que os problemas reais da IA hoje incluem vieses, confiança acrítica, privacidade e transparência, e impactos ambientais. As IAs não são motores analíticos objetivos que revelam a verdade para quem pergunta; são modelos construídos com base nas suposições de seus programadores, suposições que possuem suas próprias limitações e vieses. E, por conta desses vieses, não devemos confiar cegamente no que é gerado pela IA. Também é importante perguntar como a máquina funciona, como ela chega às respostas que apresenta e o que acontece com os dados das pessoas que entram na máquina. E tudo isso, devemos lembrar, é feito por máquinas que consomem muita energia, contribuindo para o agravamento das mudanças climáticas. Essas preocupações podem não ser tão dramáticas quanto o medo de Nick Bostrom de que uma máquina produtora de clipes de papel poderia destruir o planeta, mas são questões reais que afetam pessoas reais e nossa experiência real no mundo.

Acho surpreendente que, em meio a muitas dessas conversas, poucas pessoas tenham perguntado o que acontece com os pobres. Quando essa questão surge, geralmente é enquadrada apenas em termos de trabalho, ou seja, quais empregos serão substituídos pela IA. Outros aspectos da pobreza, como doenças, habitação, segurança e alimentação, são ignorados. Não parecem relevantes. E por que seriam relevantes?

Exclusão dos pobres

A realidade é que a exclusão dos pobres nas discussões sobre IA revela profundamente o que há de mais preocupante nessa tecnologia. Questões humanas reais são frequentemente levantadas apenas por pensadores mais cautelosos, e não por profetas do apocalipse ou da prosperidade. A IA não é uma tecnologia que se encaixa na vida humana real – é uma tecnologia de fantasia e sempre foi. Desde os anos 1950, quando pessoas como Alan Turing, John McCarthy e Marvin Minsky estavam criando o campo e tentando descobrir como fazer um monte de tubos de vácuo “pensar” como um ser humano, pesquisadores de IA e os que os escutam têm acreditado que podemos criar nossos próprios monstros de Frankenstein, embora em uma máquina calculadora, em vez de tecido orgânico costurado. Mas desde os anos 1960, críticos como Hubert Dreyfus notaram que a mente humana é muito mais do que um simples dispositivo de cálculo. Estar no mundo é ter crescido nele, com um entendimento sobre como as coisas funcionam, moldado por linguagem, cultura, religião e comunidades. A história de criação de Adão, feito do pó da terra, é um modelo apropriado para os seres humanos – surgimos do pó da terra, e não do céu, já completos.

Acredito que grande parte do interesse na IA atualmente é perigosa para os pobres. Não quero dizer que a IA em si seja uma tecnologia perigosa para os pobres, mas que os interesses em jogo no desenvolvimento e no uso dela em quase todos os contextos são projetados para beneficiar os ricos e poderosos, com o efeito de marginalizar ainda mais os pobres. Cito algumas preocupações específicas: o problema dos recursos e da riqueza, os valores incorporados na IA e, em minha opinião, o mais preocupante, a antropomorfização da IA.

IHU – Como lidar com a limitação de recursos perante a promessa da IA de crescimento econômico ilimitado?

Levi Checketts – A primeira crítica à IA feita por um filósofo foi o artigo de Hubert Dreyfus, “Alchemy and Artificial Intelligence” (publicado em 1965). O ponto que Dreyfus destacou, e que reiterou em What Computers Can’t Do, é que algumas formas de pensamento não são programáveis; portanto, presumir que uma máquina possa pensar como um humano é semelhante às fantasias dos alquimistas. Gosto da metáfora, mas prefiro considerar a IA como uma espécie de pedra filosofal. A linguagem usada para vender a IA certamente não hesitou em prometer que ela será uma tecnologia milagrosa que melhorará todos os aspectos da vida humana. Também é prometido crescimento econômico ilimitado por meio dela. De fato, se a IA é capaz de realizar todos os nossos desejos econômicos, é a promessa de transmutação pela qual os alquimistas tanto ansiavam.

O problema, claro, é que não existe crescimento econômico ilimitado. Vivemos em um universo finito, em um planeta com apenas tantos recursos. O que é pior, segundo o que sabemos sobre a expansão do universo e a lei da entropia, toda troca envolve uma perda. Na cadeia alimentar, menos animais vivem no topo porque a predação não captura totalmente as calorias consumidas pelos herbívoros. Pêndulos desaceleram. A ideia de uma máquina de movimento perpétuo é pura fantasia. A IA não pode criar ex nihilo, e o custo de criação e funcionamento da IA, como apontado por um número crescente de estudiosos, é extremamente alto em comparação com outras tecnologias.

Relação entre a IA e as mudanças climáticas

E. F. Schumacher observou em 1966 que o desejo capitalista de crescimento contínuo não pode ser sustentado e que deveríamos adotar um sistema econômico “budista” de equilíbrio e harmonia. Nos anos 1970, James Lovelock e Lynn Margulis argumentaram que nosso planeta funciona como um organismo, com múltiplas “esferas” (biosfera, hidrosfera, litosfera, atmosfera) trabalhando como sistemas de órgãos. Em 1968, Buckminster Fuller escreveu Operating Manual for Spaceship Earth, enfatizando os recursos limitados de nosso planeta enquanto ele viaja pelo espaço. Em resumo, há mais de 50 anos, o problema do consumo acrítico de recursos foi claramente definido. Aqueles que acreditam que a IA resolverá todos os problemas, incluindo a mudança climática, não se deram ao trabalho de fazer sua própria lição de casa sobre o assunto.

Isso significa que, quando gastamos dinheiro e usamos recursos para o desenvolvimento e implantação da IA, estamos utilizando recursos que poderiam ser destinados aos pobres. Claro, o mesmo argumento pode ser feito para uma variedade de nossas atividades econômicas, como as indústrias de entretenimento ou moda, e esse ponto foi levantado profeticamente pelos bispos dos EUA contra a indústria de armamentos em 1983. No entanto, ninguém afirmou que precisamos investir fortemente em parques da Disney ou na Gucci para nos salvarmos e salvarmos nosso planeta. Altruístas eficazes, no entanto, fazem exatamente esse argumento quando direcionam suas “doações” de caridade de volta para as mesmas empresas de tecnologia que possuem. A alegação não comprovada de que a IA pode nos ajudar a resolver certos problemas relacionados a crises ambientais ou desigualdade econômica torna-se uma justificativa para investir mais em IA.

Como Emile Torres e Timnit Gebru apontaram, existe uma espécie de mentalidade colonial quando ricos ocidentais brancos decidem que a pesquisa em IA é mais importante para o nosso futuro do que redes mosquiteiras. Isso é terrivelmente irônico; o altruísmo eficaz foi fundado com base no argumento de Peter Singer de que os ricos têm o dever de doar toda a sua riqueza excedente aos necessitados porque isso produzirá muito melhor dessa forma. Se o argumento para o altruísmo eficaz é que ele pode ajudar mais pessoas do que o capitalismo sozinho, então o dinheiro dado deveria ser destinado aos necessitados.

A questão, claro, não é que estamos direcionando o dinheiro errado. O ponto é que investir em IA significa investir em uma tecnologia que não ajuda realmente os pobres. Portanto, quando Eric Schmidt, ex-CEO do Google, afirma que a IA é a única solução para a mudança climática, devemos protestar vigorosamente: a IA é uma tecnologia extremamente dispendiosa em termos de energia e recursos, atualmente agravando a crise climática. Além da má alocação específica de recursos que poderiam beneficiar os pobres, os efeitos ambientais da mudança climática afetam desproporcionalmente as populações pobres.

Atualmente, a IA oferece algum trabalho para os pobres, embora de forma exploratória. A jornalista freelancer de Hong Kong, Karen Hao, relatou o trabalho “fantasma” feito em países como Venezuela e Quênia para treinar IAs. Os trabalhadores fantasmas geralmente competem entre si por contratos, já que o trabalho não é garantido ou estável. No caso de trabalhadores quenianos treinando o GPT, revisar repetidamente textos obscenos para tornar o programa mais seguro levou esses trabalhadores a problemas psicológicos. Além disso, esse trabalho de treinamento não é planejado para ser permanente; ele serve como uma solução temporária até que a IA funcione sem assistência humana.

Também é importante observar que muitos economistas preveem que a IA causará disrupções em indústrias, levando à perda de empregos, ou, como dizem, à “reespecialização”. Frequentemente, essas conversas se concentram em países ricos. Mas o que acontece quando os chatbots se tornam sofisticados o suficiente para que centros de atendimento ao cliente na Índia e nas Filipinas não sejam mais necessários? E quando a robótica e a visão computacional tornam muitos empregos de manufatura no Vietnã e em Bangladesh obsoletos? Embora o “mercado cinza” prevaleça na maior parte da economia de países mais pobres, a geração de riqueza em um mundo globalizado envolve longas cadeias de produção, muitas das quais podem ser desestabilizadas quando máquinas automatizadas se tornam mais baratas que a mão de obra humana.

A IA é uma tecnologia extremamente dispendiosa em termos de energia e recursos, atualmente agravando a crise climática – Levi Checketts


No fim das contas, a generosidade do Vale do Silício se destaca como um lembrete claro do Efeito Mateus – os ricos ficam mais ricos e os pobres mais pobres. Das dez maiores empresas por valor de mercado, oito estão envolvidas com IA de alguma forma, incluindo Taiwan Semiconductor Manufacturing Corporation e Nvidia – empresas que só recentemente chegaram ao topo devido às necessidades de hardware da IA.

Valores incorporados na IA

Muitas pessoas acreditam que tecnologias são inerentemente neutras em termos de valores. O teólogo Mark Graham argumentou, há doze anos, que a ética teológica católica da tecnologia era subdesenvolvida devido à prioridade da “ética de uso”. Nessa visão, as tecnologias são vistas como meras extensões de nossas intenções e não como elementos moralmente significativos por si mesmos.

O problema com essa ideia é que ela simplesmente não é verdadeira. Tecnologias são desenvolvidas com uma intenção em mente. É verdade que um martelo pode ser usado para matar alguém, assim como para construir uma casa, mas a intenção do fabricante do martelo é empoderar carpinteiros a construir, não assassinos a matar. E, mais importante, a tecnologia em si transmite esses valores incorporados. Seguindo o modelo “pós-fenomenológico” iniciado por Don Ihde, podemos dizer que as tecnologias mediam o mundo para nós, incluindo certos valores nessa mediação. A arquitetura é um exemplo evidente disso: Langdon Winner afirmou que Robert Moses construiu uma ponte para Long Island baixa demais para permitir a passagem de ônibus cheios de pessoas pobres e não brancas da cidade em direção à praia. Robert Rosenberger também ilustrou muitos casos de “arquitetura hostil” projetada para afastar pessoas sem-teto da vista pública.

Dado isso, alguns estudiosos sugerem o “design sensível a valores” como abordagem para a ética da tecnologia. Nessa abordagem, começamos a desenvolver tecnologias não a partir de impulsos econômicos ou simplesmente pela inovação, mas com valores éticos específicos em mente. Podemos ver ecos dessa preocupação nas discussões sobre ética da IA, em que se debate tornar a IA mais democrática ou transparente – queremos incorporar valores à IA que não estão atualmente presentes em sua operação. Também podemos ver que alguns projetos financiados por governos, como o Programa Horizonte da UE, visam alcançar resultados específicos com o desenvolvimento de IAs, como aumentar a produtividade agrícola, reduzir lesões no trabalho ou oferecer melhor assistência a pessoas com deficiência.

IHU – Existem iniciativas e possibilidades da IA ser uma ferramenta benéfica para os pobres?

Levi Checketts – É possível desenvolver IA de forma a beneficiar os pobres, mas não está claro se isso será feito. Por exemplo, Virginia Eubanks relata como o Estado de Indiana, nos EUA, desenvolveu um sistema automatizado para gerenciar seu programa de assistência social em 2008. O objetivo era reduzir a corrupção e o desperdício, mas o efeito foi que muitos pobres merecedores foram excluídos de seus benefícios devido a falhas no sistema, erros de documentação e pessoal de suporte não treinado. Muitos estudiosos apontaram como o algoritmo COMPAS, projetado para prever taxas de reincidência, reproduziu preconceitos embutidos no sistema judicial, aplicando punições mais severas a pessoas de cor. Cathy O’Neil destacou como o processamento automatizado de empréstimos tende a negar empréstimos aos pobres. Casos como esse são chamados por ela de “armas de destruição matemática” – ferramentas que se baseiam em matemática e podem causar devastação em larga escala se forem excessivamente confiáveis.

Sou cético quanto à utilidade da IA para os pobres, pois ela é fundamentada em premissas de eficiência matemática. A lógica da eficiência matemática não é uma lógica humanizada. Há uma razão pela qual contrastamos o que é frio e robótico com o que é caloroso e humano; apesar da retórica dos economistas que nos veem como atores racionais e autocentrados, muitas vezes agimos pelos outros independentemente de nosso próprio benefício, por puro altruísmo. Parte do que é ser humano inclui relacionamentos, rituais, costumes, estética e narrativas; não são meros adornos, mas essenciais, como água e ar. Quando o AlphaGo venceu Sedol Lee, a mídia coreana observou que a máquina quebrou o protocolo ao jogar enquanto Lee estava fora da sala, uma falta de etiqueta para qualquer jogador experiente de Go, embora seja algo puramente costumeiro, não inerente ao jogo.

Dentro da lógica da eficiência matemática, tudo o que é considerado supérfluo em relação ao nosso objetivo é visto como um fardo. O economista Nobel Milton Friedman dizia que os líderes empresariais tinham apenas uma obrigação – maximizar os lucros dentro dos limites da lei. Porém, como a maximização dos lucros é o padrão, muitas empresas não se importam em violar a lei, especialmente se as consequências não afetam sua lucratividade. Além disso, esse foco resulta em diversos abusos aos trabalhadores, que são geralmente considerados apenas despesas necessárias para a empresa, sem direito a compartilhar os lucros. Nos EUA, a forma mais comum e dispendiosa de roubo é o roubo de salários. Ainda assim, a maioria das empresas globais prefere terceirizar sua mão de obra para regiões com salários e padrões de segurança e ambientais mais baixos. E, embora um crítico atento possa notar que, em última análise, não é eficiente usar irresponsavelmente todos os nossos recursos naturais, o foco no lucro imediato não leva em conta os problemas de longo prazo.

Cada IA criada por uma empresa de tecnologia com fins lucrativos será desenvolvida especificamente para gerar lucro e reduzir custos. O modo como a máquina faz isso pode variar, mas o objetivo essencial é o mesmo de todos os atores em um sistema capitalista. O problema é claro: se GoogleFacebookAmazonAppleTesla e outras empresas lançarem IA, será para gerar valor ou reduzir custos. Sabine Pfeiffer argumenta que tecnologias digitais aumentam os lucros geralmente por meio da redução de custos, embora sugira que a IA possa realmente gerar valor. Como uma tecnologia cara como a IA reduziria custos? Reduzindo o custo humano, isto é, diminuindo a mão de obra – reduzindo salários, seja em números absolutos ou em relação ao PIB.

Esse é, penso eu, o cerne do problema: a noção de eficiência matemática típica da sociedade capitalista tardia é aquela que externaliza os custos sempre que possível e prioriza apenas o benefício imediato. Uma empresa cujos trabalhadores dependem de ajuda governamental pode ainda ser considerada bem-sucedida, pois transferiu seus custos para a sociedade. Não é eficiente em uma escala pura, mas é eficiente aos olhos da empresa, que transfere seus custos para o coletivo. Essa mentalidade também está presente no trabalho de programadores de IA, cujo objetivo é usar um modelo imperfeito do mundo, aplicar matemática a ele e considerá-lo como preditor da realidade.

Em termos concretos, funciona assim: o modelo que qualquer programador de IA desenvolve é baseado em suas próprias percepções do mundo, que incluem lacunas e ignorâncias. Assim, programadores de reconhecimento facial no Vale do Silício não perceberam que seus conjuntos de dados não incluíam rostos suficientes de mulheres ou minorias étnicas, por exemplo. Se o modelo for implementado, pode causar danos consideráveis antes de ser corrigido ou notado, como a polícia confiando mais nesses programas do que em seus próprios olhos. No entanto, se o programa for considerado “bem-sucedido” segundo critérios matematicamente definidos pelo criador, qualquer custo negativo adicional será considerado aceitável.

Isso implica que mesmo as iterações mais bem-intencionadas da IA buscarão marcos específicos e resultados tangíveis: prova quantitativa do “bem” que fizeram. Se a IA não atingir os objetivos específicos que o governo busca, ela pode ser encerrada. Os objetivos do programa precisam ser expressos em formas puramente matemáticas, o que se alinha facilmente ao objetivo capitalista de avaliar as coisas apenas em termos de lucro e perda. Embora isso possa ser projetado para gerar benefícios concretos para uma população específica, assume que apenas saídas quantitativas são relevantes. Os pobres que podem ser atendidos são necessariamente reduzidos a números. Nem todos os problemas enfrentados pelos pobres podem ser resolvidos com análise quantitativa.

Assim, destaco o insight do Pe. Jon Sobrino, ecoando seu mentor Ignacio Ellacuría. Como a Igreja Católica faz desde os anos 1960, Sobrino critica a ideia de que a pobreza global é apenas uma questão do que os países desenvolvidos definem como “desenvolvimento”. Desenvolvimento significa imitar o estilo dos ricos e industrializados, o que, como sabemos pela crise ambiental, é insustentável. Sobrino chama esse modelo de Civilização da Riqueza em contraste com a Civilização da Pobreza, que prioriza direitos humanos e comunidade. Embora esteja claro, como apontam alguns estudiosos de direitos humanos como Jack Donnelly, que o pleno apoio aos direitos humanos pode exigir certo nível de desenvolvimento, há uma orientação fundamentalmente diferente em desenvolver com o propósito de atender direitos humanos, em vez de desenvolver por desenvolver.

A IA como ferramenta de desenvolvimento só pode medir direitos humanos de forma aproximada, estando sujeita a falhas se os modeladores não compreenderem plenamente a situação real. Isso é provável enquanto, mais uma vez, ecoando o testemunho profético da teologia da libertação, os pobres permanecerem sem nome e voz. Se os pobres não tiverem a chance de defender a si mesmos perante outros humanos, que podem responder ao apelo que lhes é feito pela dignidade inerente aos pobres, então eles serão relegados a estatísticas.

A IA é desenvolvida em sociedades que desvalorizam os pobres. Nos EUA, por exemplo, país líder no desenvolvimento de IA, a aprovação moral é quase sinônimo de riqueza material. Um homem rico é um bom homem, e os pobres e sem-teto são considerados pobres de caráter também. A ética protestante de Max Weber é mais visível nesse cenário. Nos EUA, os pobres são vistos como merecedores de seu destino, onde empresários do Vale do Silício reclamam da presença de sem-teto deslocados pelo aumento do custo de vida. Assim, é duvidoso que países como os EUA se interessem em desenvolver IA com o objetivo de ajudar os pobres.

IA Antropomórfica

O perigo mais pernicioso da IA é a forma como tendemos a antropomorfizá-la. Mesmo o termo “inteligência” envolvido em sua designação é usado para sugerir que a IA é “algo como nós”, já que descrevemos coisas com as quais nos identificamos como “inteligentes”. O filósofo David Gunkel torna isso explícito. A discussão sobre os direitos da IA está embasada na suposição de que inteligência corresponde a agência moral e paciência, como demonstrado, por exemplo, no movimento pelos direitos dos animais, seguindo Peter Singer. Nessa visão, se a IA demonstrar capacidades humanas suficientes (particularmente o que definimos como inteligência), então ela deve receber status moral.

Essa tendência está bem documentada ao longo de nossas tradições morais. Um panorama das teorias morais é ilustrativo: Kant pensa que apenas seres racionais devem ser tratados como fins em si mesmos; Mill acredita que a capacidade de sentir prazer, com graus variados de acordo com o crescimento intelectual de cada um, é o padrão para a paciência moral; Tomás de Aquino nota que a dignidade humana se deve ao fato de sermos racionais como Deus; Aristóteles acredita que a mais elevada forma de vida é a contemplação da pura sabedoria. Normalmente, em ética ambiental, por exemplo, discutiríamos tudo isso como indicativo de antropocentrismo. Mas mesmo modelos que não são estritamente antropocêntricos tendem a repetir essa ideia, como indicado por grande parte do movimento pelos direitos dos animais, que valoriza os animais principalmente na medida em que compartilham certas capacidades conosco.

Vários teóricos críticos apontaram que esse tipo de lógica sempre teve uma ordem hierárquica. Feministas, por exemplo, observam que, em muitas expressões típicas, a racionalidade é associada ao ser masculino, enquanto o animalismo é associado ao ser feminino, levando a um valor de fato mais elevado para os homens do que para as mulheres. O movimento eugenista também afirmou que diferentes “raças” eram resultado de uma melhor ou pior reprodução. Assim, essa preferência por humanos “racionais” sempre tem o efeito de criar uma ordem desigual e favorecer alguns em detrimento de outros.

Há menos de cinquenta anos, países como os Estados Unidos ainda tinham leis que permitiam a esterilização forçada de pessoas com doenças mentais, deficiências mentais ou outros traços considerados “indesejáveis”. A Islândia eliminou quase todos os casos de síndrome de Down hoje por meio de aborto seletivo. Enquanto os EUA se preparam para outra presidência de Donald Trump, as críticas a ele confundem suas falhas morais com falhas mentais. Não estamos tão distantes do que consideramos barbárie. Nossa valorização de uma certa imagem da mente racional torna-se para nós um sinônimo do que é bom e belo, e a maioria de nós aceita isso sem críticas. Mesmo eu, ciente desse problema, frequentemente me pego usando termos como burro, idiota, louco, insano e estúpido para dizer que algo é injusto, prejudicial ou simplesmente errado.

Isso é um problema porque as máquinas que estamos discutindo foram feitas para ser “inteligentes”, e essa característica das máquinas é concebida para sugerir que elas são, de alguma forma, “melhores”. Então, quando surgem discussões sobre direitos dos robôs, vemos que bondade, inteligência e direitos estão inextricavelmente entrelaçados em um único fio. Não perguntamos se uma máquina de lavar ou um soldador industrial deveriam ter direitos humanos. Assumimos que uma IA poderia ter direitos porque se assemelha aos seres humanos naquilo que consideramos relevante para a concessão de direitos, ou seja, como agentes “inteligentes”.

Modelos de inteligência

Mas qual é o modelo de inteligência que a IA representa? Ela é essencialmente composta por algoritmos complexos, que, por sua vez, são apenas equações matemáticas complexas. Em outras palavras, a inteligência modelada pela IA é, em sentido estrito, inteligência matemática. Isso reflete uma tendência das culturas ocidentais desde a Revolução Científica, e uma tendência que, no século passado, está ligada, não surpreendentemente, à eugenia. O QI é um valor numérico atribuído às pessoas com base na capacidade de completar um teste padronizado dentro de um certo limite de tempo. Muitas das questões envolvem raciocínio matemático e quantitativo. Perguntas sobre literatura e linguagem também aparecem em alguns testes, mas estas devem ser respondidas com uma “solução” correta específica, então os problemas aparecem em formato matemático. Colocar isso como o padrão definitivo de inteligência é, obviamente, problemático: não apenas o pensamento criativo ou soluções alternativas são considerados “não inteligentes” por essa medida, mas pior ainda é que isso requer um modelo padronizado de educação.

Assim, o modelo de “inteligência” da IA, que é sua qualificação para direitos, é um modelo baseado em sistemas educacionais burgueses. Afirmar que a linguagem deveria ter uma forma específica, por exemplo, assume que a linguagem falada pelo povo comum, muitas vezes classificada com termos pejorativos para indicar seu status vulgar, é considerada um sinal de falta de inteligência. Então, para adicionar outro ingrediente à fórmula, inteligência, consciência e direitos também estão ligados a modelos educacionais. Os não (ou sub) educados são vistos pela elite escolar como crianças que precisam de um cuidado paternalista.

Teologia da Libertação

Sou cético em relação ao movimento da Teologia da Libertação. Por melhores que fossem as intenções do falecido Gustavo Gutierrez ao falar sobre a falta de voz dos pobres, a posição que ele e outros padres educados na Europa assumiram era paternalista. De fato, o processo de “conscientização” que Gutierrez enfatiza, um modelo que ele tomou do pedagogo brasileiro Paulo Freire, assume que o profissional educado e bem-intencionado está na posição correta para informar os pobres sobre o quão terrível é sua condição. Como Gayatri Spivak observou provocativamente, “o ventriloquismo do subalterno é o trunfo dos intelectuais de esquerda” – aqueles que desejam ajudar os pobres geralmente assumem que sabem melhor como fazer isso do que os próprios pobres e assumem que os pobres devem receber a educação adequada para refletir o que as elites bem-intencionadas veem de si mesmas.

Os engenheiros e designers de IA criam um programa que é uma imagem espelhada de como eles se veem. O padrão para seu sucesso como uma máquina inteligente é determinado pelos programadores com base em sua própria compreensão de inteligência. É a imagem narcisista deles construída em silício. Embora nenhuma IA tenha ainda alcançado esse padrão, os engenheiros de IA continuam otimistas de que possuem a visão correta, apenas precisam fazer o avanço certo. Dreyfus criticou isso em seu livro What Computers Can’t Do, para a irritação de vários pioneiros da IA, quando os problemas que enfrentaram se mostraram mais difíceis do que pensavam inicialmente. Mas nos últimos anos, o aprendizado de máquina levou a programas muito mais sofisticados, e demonstrações de prova de conceito como AlphaGo, ou aplicações no mundo real, como o premiado AlphaFold, dão algum peso a esses sonhos androides.

Inteligência Artificial Geral

Embora alguns pesquisadores de IA permaneçam ancorados sobre as limitações do aprendizado de máquina atual, muitas das vozes mais altas, incluindo Elon Musk e Sam Altman, imaginam que em breve alcançarão a Inteligência Artificial Geral – IAG, o termo atual que substitui a antiga IA “à moda antiga” ou a agora demasiadamente diversa IA. E seguindo as profecias de Nick Bostrom, eles se preocupam e esperam que a IAG rapidamente se torne Super IAG, uma inteligência artificial muito mais inteligente que nós. A linguagem que eles usam para sugerir o que isso significa – como um humano para uma formiga – reforça a visão profundamente problemática de inteligência que sustenta toda a pesquisa em IA. As preocupações morais que têm – a ameaça de uma crise existencial ou a promessa de uma governança utópica – são maneiras de sugerir que uma super IAG será moralmente superior a nós, da mesma forma que somos moralmente superiores (ou acreditamos ser) aos insetos, e revela suas próprias falhas éticas.

Isso estabelece um espectro de valor moral, onde quanto mais “inteligente” um ser é, com base em uma medida quantitativamente definida, mais “bom” e digno ele é, enquanto quanto menos “inteligente” ele é, menos digno se torna. Se os pobres carecem de recursos educacionais, ou se condições de fome e precariedade levam a um funcionamento neural subótimo, ou se fatores genéticos ou epigenéticos limitam sua capacidade de aprendizagem, ou se seu uso da linguagem é considerado rude, ou se a necessidade de sobrevivência os leva a priorizar ganhos de curto prazo em detrimento do retorno de longo prazo, ou se a experiência da cultura capitalista os leva a ser cautelosos ao arriscar o pouco que possuem, é provável que ocupem uma posição “inferior” na escala em comparação com nossas máquinas. Se a implicação não está clara, os EUA viram a revogação da proibição de casamentos inter-raciais anos antes de ocorrer a revogação para esterilização forçada de pessoas com doenças mentais.

Um amigo explicou esse problema em termos simples: é perturbador discutir a concessão de direitos a máquinas que não possuem qualquer tipo de autoconsciência enquanto há muitas categorias de humanos que ainda não usufruem desses direitos. Uma versão dessa frustração foi expressa sete anos atrás, quando o governo da Arábia Saudita concedeu cidadania a Sophia, uma ginoide desenvolvida aqui em Hong Kong, enquanto as mulheres desse país careciam de direitos básicos. Vivemos em um mundo onde os pobres e outros marginalizados frequentemente enfrentam os seguintes problemas: fome, desnutrição, tráfico humano, exposição a produtos químicos nocivos, falta de saneamento, escassez de água potável, violência, abuso de substâncias, doenças específicas (incluindo tuberculose, malária, AIDS, esquistossomose, doenças cardíacas, pneumoconiose e obesidade). Discutir a concessão de direitos a um programa de computador como se fosse um cidadão burguês da União Europeia é absolutamente absurdo, considerando essa realidade. Para citar Jesus no sermão da montanha, “tira primeiro a trave do teu olho, e então verás claramente para tirar o cisco do olho de teu irmão”. Em outras palavras, devemos conceder direitos humanos a todos os humanos antes de estendê-los a não humanos.

Se o problema fosse tão simples, esta seria a conclusão. Mas o que fica sem resposta é a incômoda pergunta sobre por que alguém consideraria a concessão de direitos à IA mais urgente do que resolver os problemas humanos ao nosso redor. O teólogo Philip Hefner articulou a ideia com mais clareza ao afirmar que a IA é um “tecnoespelho” no qual nos vemos. Observe que, na visão cristã, o que confere dignidade aos seres humanos é nosso status como imago Dei – sermos a imagem de Deus. Nossa imagem, então, assume um papel igualmente digno. No entanto, a alusão que deveríamos recordar na metáfora de Hefner é o mito de Narciso, cuja obsessão com seu próprio reflexo resultou em sua própria destruição. A IA como “tecnoespelho” tem a função de refletir nosso olhar de volta para nós mesmos, um processo que o filósofo católico Jean-Luc Marion chama de idolatria. A iconografia, por outro lado, ocorre quando uma imagem aponta para algo além de si mesma, para algo inefável. Ao escrever sobre o pensamento de Emmanuel LevinasJacques Derrida observa que, quando falamos do “Outro”, não nos referimos a um “alter ego”, ou seja, não a um “outro como eu”. Em vez disso, o Outro é totalmente diferente de mim, e, em sua absoluta alteridade, devo reconhecer a responsabilidade moral que tenho em relação a alguém que não pode ser reduzido à minha própria imagem.

Aqui reside a diferença fundamental entre uma ordem moral que considera a IA como paciente moral e uma ordem moral que reconhece nossas falhas em relação aos pobres. A IA como paciente moral é uma variação de Frankenstein ou Pinóquio. Reconhecemos um ser não totalmente humano que ganha o respeito dos humanos porque o criamos e projetamos nele uma parte de nós. Assumimos o papel paternalista e ensinamos esse ser a ser como nós, e assim ganhamos nossa própria aprovação moral. Por outro lado, temos o gênero mais perturbador da ficção do duplo, como em William Wilson de Poe ou em O Duplo de Dostoiévski. Em tais histórias, precisamos lidar com um outro que pode parecer comigo, mas não é igual a mim e cuja existência me faz sentir desconfortável. Lutamos contra ele porque não suportamos viver em um mundo onde ele existe ao nosso lado e ameaça a autoimagem que prezamos tanto.

Devemos conceder direitos humanos a todos os humanos antes de estendê-los a não humanos – Levi Checketts

A IA é retratada como um reflexo limpo e eficiente do que imaginamos ser. Os pobres, por sua vez, nos aparecem como versões sujas, doentes e covardes daquilo que realmente somos. Uma IA não sofre de esquizofrenia ou abstinência de drogas; não comete pequenos delitos ou gafes públicas; não exige auxílio governamental ou assistência de caridade; não rejeita sua ajuda superficial e presunçosa; não dorme nos bancos do seu parque, não bate em seus filhos nem cambaleia embriagada pelas ruas; não tem pulgas ou piolhos; não morre por infecção, overdose ou acidente de trabalho; não tem odor nem cria incômodo com sua presença pública. E, por todas essas razões, a IA é muito mais confortável como “Outro” (ou seja, um alter ego) para as elites educadas reagirem do que os pobres. Ser pobre, com todas as misérias que isso acarreta, é o maior desvalor de um sistema capitalista. As classes altas relacionam-se com os pobres apenas como aqueles que devem ser evitados, para que a contaminação não se instale. Os pobres podem ser miseráveis, mas, segundo essa visão, merecem seu destino – pensar o contrário poderia levar alguém a questionar por que eles merecem viver uma vida melhor.

IA e fantasia capitalista

A Inteligência Artificial é o ápice da fantasia capitalista. Ela representa a expectativa de acumular riqueza ad nauseam e uma classe trabalhadora sem os custos de mão de obra. É, claro, uma fantasia, pois mais de 200 anos de capitalismo e avanço científico deixaram claro que o crescimento infinito é impossível, que são os pobres que geram a riqueza real e que o custo da IA geralmente não compensa. Do ponto de vista moral, ficamos ainda mais alarmados, pois as fantasias em torno da IA tendem a prejudicar os pobres ao privá-los de direitos, desvalorizá-los e desumanizá-los, enquanto atribuem benefícios a máquinas sem consciência. Esse entendimento nos exige uma análise mais profunda da pobreza do que a maioria está disposta a fazer; devemos considerá-la não apenas como uma condição de falta de dinheiro, mas como uma posição contextualizada socialmente, que inclui modos de socialização, processos de legitimação ou deslegitimação de códigos de conduta, padrões éticos, impactos psicológicos e outros fatores, todos profundamente desprezados pela cultura dominante – aspectos que, notavelmente, estão ausentes na programação da IA.

A Inteligência Artificial é o ápice da fantasia capitalista. Ela representa a expectativa de acumular riqueza ad nauseam e uma classe trabalhadora sem os custos de mão de obra – Levi Checketts

Mas isso não significa que a IA seja uma tecnologia totalmente inútil. O próprio Karl Marx acreditava que as tecnologias da burguesia impulsionariam a revolução sem classes. A IA executa tarefas quantitativas com muita eficiência e tem se mostrado de enorme valor para cientistas, médicos, demógrafos e outros. Portanto, encerro com um pensamento otimista. Se pudermos dissociar a IA das questões de direitos, podemos encontrar formas de aplicá-la como uma ferramenta para problemas morais específicos, nos quais precisamos de insights. Isso deve sempre ser feito com plena consciência dos benefícios e falhas da IA, para evitar a tentação da aceitação acrítica e da confiança injustificada. Podemos também preferir mudar a terminologia, pois “inteligência” implica um certo fundamento metafísico e metaético, com suas associações. Finalmente, precisamos reavaliar nossos próprios padrões de dignidade moral e permitir que todos os humanos tenham dignidade, independentemente de quão bem demonstrem traços semelhantes aos de uma IA.

IHU – UNISINOS
https://www.ihu.unisinos.br/646364-a-ia-e-desenvolvida-em-sociedades-que-desvalorizam-os-pobres-entrevista-especial-com-levi-checketts

Empresa indenizará ex-empregado por roda de oração antes do expediente

Tema 1.232 do STF: Inclusão de empresa do grupo econômico na execução trabalhista sem participação na fase de conhecimento – Atualizações e perspectivas

Estêvão Bianquini Simões

O Tema 1.232 do STF discute a inclusão de empresas do grupo econômico na execução trabalhista sem participação na fase de conhecimento, destacando segurança jurídica e defesa.

O Tema 1.232 da repercussão geral do STF discute a viabilidade jurídica de incluir, na fase de execução trabalhista, empresas pertencentes a um grupo econômico que não participam da fase de conhecimento do processo. O julgamento se dá no âmbito do RE 1.387.795, de relatoria do ministro Dias Toffoli, interposto pela empresa Rodovias das Colinas S.A., que questiona decisão do TST que admitiu sua inclusão no polo passivo da execução trabalhista sem ter sido parte na fase de conhecimento. Tal controvérsia é de grande relevância para o Direito do Trabalho, pois impacta diretamente a segurança jurídica das empresas que integram grupos econômicos e, ao mesmo tempo, reflete na efetividade do crédito trabalhista.

O ponto central da discussão reside na compatibilização entre a necessidade de garantir o cumprimento das obrigações trabalhistas e a preservação dos princípios constitucionais do contraditório, da ampla defesa e do devido processo legal. A prática de inclusão de empresas do grupo econômico diretamente na execução é comum na Justiça do Trabalho. Contudo, tal prática tem sido alvo de questionamentos acerca da violação aos direitos fundamentais das empresas que, muitas vezes, são surpreendidas com bloqueios judiciais e penhoras de bens sem a oportunidade prévia de defesa.

Diante da controvérsia e do impacto generalizado sobre a execução trabalhista, em maio de 2023, o ministro Dias Toffoli determinou a suspensão nacional de todos os processos em trâmite que tratem da inclusão de empresa do mesmo grupo econômico na fase de execução trabalhista sem sua participação na fase de conhecimento. Essa decisão visou prevenir decisões conflitantes e preservar a segurança jurídica até que o mérito fosse julgado pelo plenário do STF.

O julgamento do mérito teve início em novembro de 2023 e, até 19/2/25, conta com seis votos proferidos. Até o momento, a maioria dos ministros, composta por Dias Toffoli (relator), Cristiano Zanin, Flávio Dino, André Mendonça e Nunes Marques, manifestou entendimento de que a inclusão de empresas do grupo econômico na fase de execução somente se admite em situações excepcionais, tais como “nas hipóteses de sucessão empresarial (art. 448-A da CLT) e abuso da personalidade jurídica (art. 50 do CC), observado o procedimento previsto no art. 855-A da CLT e nos arts. 133 a 137 do CPC”. Essa corrente sustenta que a empresa que não integrou a fase de conhecimento não pode ser automaticamente responsabilizada, devendo-lhe ser garantida a oportunidade de defesa desde o início do processo, em prestígio aos princípios constitucionais do contraditório, da ampla defesa e do devido processo legal, além de resguardar a segurança jurídica das empresas integrantes de grupos econômicos.

Por outro lado, o ministro Edson Fachin apresentou entendimento divergente, admitindo a inclusão da empresa do grupo econômico na execução trabalhista, mesmo sem ter participado da fase de conhecimento. Para Fachin, a empresa que for incluída na execução ainda terá a possibilidade de exercer sua defesa por meio de embargos à execução, o que, segundo seu entendimento, garantiria o contraditório e a ampla defesa em momento posterior.

O julgamento foi suspenso em razão do pedido de vistas do ministro Alexandre de Moraes, que sinalizou que pretende devolver o processo para a continuidade da deliberação logo após o período de Carnaval. Até o momento, não há tese definitiva fixada, mas a tendência majoritária aponta para a vedação da inclusão automática de empresas do grupo econômico na fase de execução, salvo em situações excepcionais devidamente comprovadas, tais como “nas hipóteses de sucessão empresarial (art. 448-A da CLT) e abuso da personalidade jurídica (art. 50 do CC), observado o procedimento previsto no art. 855-A da CLT e nos arts. 133 a 137 do CPC”.

Esse julgamento terá repercussões significativas na execução trabalhista. Caso a posição majoritária do STF seja confirmada, haverá uma mudança expressiva na condução das execuções trabalhistas. As empresas passarão a contar com maior segurança jurídica, previsibilidade e proteção patrimonial, evitando bloqueios e penhoras repentinas. Por outro lado, trabalhadores e seus advogados precisarão reforçar a demonstração da existência do grupo econômico ainda na fase de conhecimento, sob pena de enfrentarem dificuldades na fase de execução, especialmente quando a empresa originalmente condenada for insolvente.

A definição dessa tese trará maior segurança jurídica às relações empresariais e contribuirá para a uniformização dos procedimentos na execução trabalhista. Portanto, o desfecho do Tema 1.232 da repercussão geral do STF é aguardado com grande expectativa, tanto por parte dos operadores do direito, como pelos jurisdicionados.

Estêvão Bianquini Simões
Advogado do escritório Cheim Jorge & Abelha Rodrigues Advogados Associados, especialista em Direito Material e Processual do Trabalho pela FDV

MIGALHAS
https://www.migalhas.com.br/depeso/425050/tema-1-232-do-stf-inclusao-de-empresa-na-execucao-trabalhista