NOVA CENTRAL SINDICAL
DE TRABALHADORES
DO ESTADO DO PARANÁ

UNICIDADE
DESENVOLVIMENTO
JUSTIÇA SOCIAL

Pensar a IA eticamente é refletir sobre o tipo de humanidade que queremos construir para o futuro. Entrevista especial com Steven S. Gouveia

Pensar a IA eticamente é refletir sobre o tipo de humanidade que queremos construir para o futuro. Entrevista especial com Steven S. Gouveia

“Uma IA verdadeiramente transformadora – ética, autônoma e sensível ao contexto – exigirá muito mais do que algoritmos eficientes: exigirá um diálogo genuíno entre neurociência, filosofia da mente e ciência da computação. O cérebro humano, em sua complexidade dinâmica, nos convida a pensar a inteligência não apenas como processamento de informação, mas como processo vivido”. A afirmação é do filósofo português Steven S. Gouveia na entrevista a seguir, concedida por e-mail ao Instituto Humanitas Unisinos – IHU.

Para o pesquisador, a filosofia, e em particular a ética, tem um papel absolutamente central no debate sobre Inteligência Artificial: “não como um acessório posterior ao desenvolvimento técnico, mas como uma infraestrutura conceitual e normativa que deve orientar desde o início o modo como concebemos, projetamos e aplicamos essas tecnologias. Em primeiro lugar, a ética filosófica oferece as ferramentas necessárias para avaliar não apenas o que é possível fazer com a IA, mas o que é desejável. Essa distinção é fundamental. Em um cenário cada vez mais dominado pela lógica da eficiência, da inovação e do lucro, a ética entra como um campo de reflexão crítica que nos convida a pensar sobre as consequências morais, sociais e políticas do uso da IA”.

Analisando o emprego de IA no contexto bélico, como o que Israel tem feito contra a Faixa de Gaza através de softwares como o Lavender, Gouveia sustenta que existem “limites morais que não podem ser delegados a máquinas”, sob pena de que a tecnologia de guerra se converta em tecnologia da indiferença: “A decisão de tirar uma vida, por mais que ocorra num cenário de guerra, é uma decisão profundamente humana, carregada de responsabilidade moral, e não deve ser terceirizada a algoritmos – especialmente aqueles que operam como verdadeiras ‘caixas-pretas’, sem transparência nem possibilidade de escrutínio ético”. Por essa razão, filósofos, juristas e cidadãos conscientes não só podem, como devem intervir no debate, protagonizando-o. Nascida de um contexto interdisciplinar, a IA promove não somente uma revolução técnica em nossas vidas, mas uma mutação cultural, política e filosófica, e isso demanda “novas formas de reflexão crítica e uma renovada responsabilidade ética. A IA de hoje não apenas simula aspectos da inteligência humana; ela transforma as condições sob as quais vivemos, tomamos decisões e interagimos social e politicamente”.

Steven S. Gouveia é doutor em Neurofilosofia (2021) pela Universidade do Minho (Portugal). Foi pesquisador visitante na Minds, Brain Imaging and Neuroethics Unit no Royal Institute of Mental Health, da Universidade de Ottawa, Canadá, em 2017 e 2019, sob a supervisão de Georg Northoff. É pesquisador em um projeto sobre Ética da Inteligência Artificial em Medicina no Grupo Mente, Linguagem e Ação do Instituto de Filosofia da Universidade do Porto, em parceria com as universidades de Yale, Exeter e Helsinque. Em 2023, foi nomeado Professor Honorário da Faculdade de Medicina Andrés Bello, no Chile, juntamente com o Prêmio Nobel Sir Roger Penrose. Junto de D. Chalmers, S. Blackmore, R. Penrose, N. Humphrey, A. Seth, K. Friston, J. LeDoux e C. Koch publicou The odyssey of the mind: dialogues on the brain and consciousness (Amazon, 2024). Em 02-04-2025, ministrou a Aula Inaugural da Filosofia Unisinos, intitulada Filosofia e Inteligência Artificial.

Confira a entrevista.

IHU – Pode recuperar o contexto de surgimento da IA e suas aplicações nessa ocasião?

Steven S. Gouveia – O aparecimento da Inteligência Artificial (IA) surge no contexto pós-Segunda Guerra Mundial, marcado por avanços significativos na computação e por uma atmosfera intelectual de entusiasmo em torno da ideia de que a mente humana poderia ser simulada por máquinas. Um dos marcos iniciais mais simbólicos foi a famosa conferência de Dartmouth, em 1956, considerada o ponto de partida oficial da IA como campo de estudo. Nessa ocasião, pesquisadores como John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon reuniram-se com a ambição de explorar a hipótese de que “todo aspecto do aprendizado ou qualquer outra característica da inteligência pode, em princípio, ser descrito de forma tão precisa que uma máquina pode ser feita para simulá-lo”.

Nesse período inicial, as aplicações da IA estavam fortemente ligadas à lógica simbólica, à resolução de problemas matemáticos e à simulação de comportamentos racionais. A IA era vista como a tentativa de replicar processos cognitivos humanos por meio de regras explícitas e manipulação simbólica. Os sistemas desenvolvidos tinham aplicações bastante restritas, como jogos (por exemplo, o xadrez), teoremas matemáticos e problemas lógicos bem definidos. Ainda assim, esses projetos inauguraram debates fundamentais sobre a possibilidade de consciência artificial, os limites computacionais da mente humana e os desafios éticos de delegar decisões a máquinas – temas que permanecem centrais até hoje.

Portanto, a IA nasce de um contexto interdisciplinar, envolvendo não apenas a ciência da computação, mas também a filosofia da mente, a psicologia cognitiva, a linguística e a matemática. Esse caráter híbrido continua sendo uma de suas maiores forças e, ao mesmo tempo, um de seus maiores desafios filosóficos.

A IA nasce de um contexto interdisciplinar, envolvendo não apenas a ciência da computação, mas também a filosofia da mente, a psicologia cognitiva, a linguística e a matemática. Esse caráter híbrido continua sendo uma de suas maiores forças e, ao mesmo tempo, um de seus maiores desafios filosóficos – Steven S. Gouveia

IHU – Dessa época para os nossos dias, o que mais mudou no uso da IA e nos impactos sociais que estão ligados a esse fenômeno?

Steven S. Gouveia – Desde os primeiros anos da IA, marcados por sistemas simbólicos e algoritmos lógicos, houve uma transformação radical tanto nas capacidades técnicas da IA quanto nos seus impactos sociais: talvez a mudança mais significativa tenha sido a transição do paradigma simbólico para o paradigma conexionista, especialmente com o advento e o desenvolvimento das redes neurais profundas a partir da década de 2010 (embora a teoria por detrás desse avanço seja da década de 70, que teve como consequência a atribuição do Prêmio Nobel da Física de 2024 a John J. Hopfield). Hoje, modelos de aprendizado de máquina – particularmente o deep learning – conseguem realizar tarefas como reconhecimento de imagem, processamento de linguagem natural e tomada de decisão com níveis de eficiência muitas vezes superiores aos humanos, em contextos muitos variados (e.g., medicina).

Essa evolução técnica expandiu enormemente o leque de aplicações da IA: ela está presente em áreas tão diversas quanto a saúde, o transporte, a educação, o sistema judicial, a vigilância, o marketing e as artes e até a intimidade humana. Mas o que talvez seja mais importante do ponto de vista filosófico e ético é o alcance social e político dessas aplicações: a IA deixou de ser uma curiosidade científica para se tornar uma força transformadora da vida humana, impactando diretamente as relações de poder, as formas de trabalho, a privacidade e até mesmo os critérios de justiça social. Além disso, o uso massivo de dados – o chamado big data – e a opacidade dos algoritmos contemporâneos colocam novos desafios éticos: como garantir transparência e responsabilização em decisões automatizadas? Como evitar a reprodução de preconceitos históricos nos dados que alimentam esses sistemas? Como preservar a dignidade humana em um cenário de crescente automação e vigilância? Assim, a mudança não é apenas técnica: estamos diante de uma mutação cultural, política e filosófica, que exige novas formas de reflexão crítica e uma renovada responsabilidade ética. A IA de hoje não apenas simula aspectos da inteligência humana; ela transforma as condições sob as quais vivemos, tomamos decisões e interagimos social e politicamente.

Nenhuma forma de IA é consciente no sentido pleno do termo. Quando falamos de “consciência”, sobretudo no âmbito da filosofia da mente, estamos nos referindo à experiência subjetiva – aquilo que Thomas Nagel chamou de o que é ser um determinado ser – Steven S. Gouveia


IHU – Sob que aspectos a IA é consciente? O que isto significa exatamente?

Steven S. Gouveia – Essa é uma das perguntas mais provocadoras e, ao mesmo tempo, mais mal compreendidas no debate contemporâneo sobre Inteligência Artificial. A resposta direta é: atualmente, nenhuma forma de IA é consciente no sentido pleno do termo. Quando falamos de “consciência”, sobretudo no âmbito da filosofia da mente, estamos nos referindo à experiência subjetiva – aquilo que Thomas Nagel chamou de o que é ser um determinado ser. Em outras palavras, a consciência envolve sensação, intencionalidade, experiência qualia e uma perspectiva em primeira pessoa sobre o mundo. Segundo uma pesquisa que desenvolvi com o meu anterior orientador de doutoramento, o Prof. Dr. Georg Northoff, neurocientista da Universidade de Ottawa, se olharmos para como é que a consciência acontece no cérebro humano, nenhuma das IAs atuais, mesmo as mais sofisticadas, como os grandes modelos de linguagem, conseguem reproduzir esses aspectos relevantes da consciência. Elas processam dados, identificam padrões e geram respostas baseadas em estatísticas e correlações, mas não têm experiência de mundo, não têm desejos, não sentem dor nem prazer, e tampouco possuem autoconsciência ou entendimento do que fazem determinado contexto.

As IAs atuais podem simular linguagem consciente, sim, mas tal não equivale a ser consciente: é preciso algo mais. Dito isso, há um aspecto interessante a considerar: o fato de que máquinas consigam simular consciência de forma convincente já traz implicações éticas e sociais importantes (como retratam várias obras cinematográficas). Se um sistema interage como se fosse consciente, isso pode afetar nossa forma de tratá-lo, de projetar responsabilidades e até de moldar as relações humanas. Isso é particularmente relevante em contextos como o cuidado com idosos, a educação de crianças ou a aplicação da IA em decisões judiciais e médicas. Portanto, é fundamental distinguir entre consciência funcional – ou seja, a aparência de comportamento consciente – e consciência fenomenal – a experiência interna real. A filosofia da mente tem muito a contribuir nesse debate, ajudando a evitar tanto os exageros “tecnofílicos” quanto os alarmismos infundados. A questão da consciência artificial é, acima de tudo, um convite à reflexão crítica sobre o que significa ser consciente no século XXI e de que forma é que a tecnologia poderá mudar os nossos conceitos mentalistas e a suas consequentes aplicações.

É fundamental distinguir entre consciência funcional – ou seja, a aparência de comportamento consciente – e consciência fenomenal – a experiência interna real. A filosofia da mente tem muito a contribuir nesse debate, ajudando a evitar tanto os exageros “tecnofílicos” quanto os alarmismos infundados – Steven S. Gouveia


IHU – Se a IA é consciente e, portanto, independente, ela pode ser considerada um agente moral? Por quê?

Steven S. Gouveia – Essa pergunta toca num dos dilemas centrais da ética contemporânea da tecnologia. Para que algo – ou alguém – seja considerado um agente moral, é necessário que possua, ao menos, três características fundamentais: (1) consciência, no sentido fenomenológico de ter experiências subjetivas; (2) intencionalidade, ou seja, a capacidade de agir com base em razões próprias; e (3) responsabilidade, isto é, ser capaz de compreender normas morais e responder por suas ações. Como disse anteriormente, as IAs atuais não possuem consciência no sentido pleno, tampouco intenções próprias: elas operam com base em estruturas computacionais que respondem a estímulos e instruções, sem compreender verdadeiramente o conteúdo das decisões que executam. Portanto, por mais autônoma que uma IA possa parecer funcionalmente – como ao tomar decisões sem supervisão humana direta – isso não equivale a independência moral ou consciência subjetiva. Ela pode agir como se fosse um agente, mas isso não significa que seja um agente moral. No entanto, essa discussão não é meramente especulativa. Mesmo que IAs não sejam agentes morais, elas já participam de contextos morais: elas tomam decisões que afetam vidas humanas. Isso levanta uma questão filosoficamente rica e urgentemente prática: se a IA não é um agente moral, então quem é responsável pelas suas ações? Os programadores? As empresas? Os usuários? É aqui que avancei com a noção de responsabilidade distribuída: precisamos repensar nossos modelos clássicos de agência moral para lidar com sistemas que não são sujeitos morais, mas que têm efeitos morais profundos. E mais: se um dia desenvolvêssemos uma IA verdadeiramente consciente – algo ainda hipotético –, então sim, poderíamos começar a discutir se ela deveria ter status moral, talvez semelhante ao de animais conscientes ou mesmo de seres humanos. Mas, até lá, nosso foco ético deve continuar sendo a responsabilidade humana na criação, implementação e supervisão desses sistemas.

Por mais autônoma que uma IA possa parecer funcionalmente – como ao tomar decisões sem supervisão humana direta – isso não equivale a independência moral ou consciência subjetiva. Ela pode agir como se fosse um agente, mas isso não significa que seja um agente moral. No entanto, essa discussão não é meramente especulativa. Mesmo que IAs não sejam agentes morais, elas já participam de contextos morais: elas tomam decisões que afetam vidas humanas – Steven S. Gouveia


IHU – Quais as lições que o cérebro humano oferece à IA?

Steven S. Gouveia – Essa é uma pergunta central no artigo que escrevi em coautoria com o neurofilósofo Georg Northoff em 2024. No texto, defendemos que o cérebro humano não deve ser apenas uma fonte de inspiração para a IA, mas também uma estrutura de referência filosófico-epistemológica para compreender o que realmente significa inteligência. A principal tese que desenvolvemos é que os sistemas de IA atuais operam com base em modelos externos de correlação estatística, enquanto o cérebro humano funciona por meio de uma integração dinâmica entre atividade neural espontânea, tempo subjetivo e contexto corporal e ambiental. Ou seja, enquanto a IA lida com dados fora do sistema, o cérebro se organiza a partir de um fluxo interno contínuo de atividade – algo que se denomina de resting state activity – que molda a maneira como os estímulos são percebidos, interpretados e integrados.

Uma das grandes lições do cérebro para a IA, portanto, é a necessidade de contextualidade temporal e corporal. No artigo, mostramos que a inteligência humana é essencialmente encarnada e situada: ela não ocorre no vazio, mas é profundamente moldada por fatores afetivos, sensoriais e temporais. A IA, ao negligenciar essas dimensões, tende a operar de forma descontextualizada, o que limita sua capacidade de generalização e sua relevância ética e fenomenológica. Além disso, propomos que a IA poderia se beneficiar de um entendimento mais profundo da circularidade entre cérebro, corpo e mundo. Em vez de buscar replicar apenas os outputs cognitivos (como linguagem ou reconhecimento de padrões), deveríamos investigar como o cérebro se constitui enquanto sistema auto-organizado e orientado por valores internos, afetos e ritmo temporal. Isso implica um deslocamento epistemológico: não basta “imitar” a mente; é preciso compreender suas condições estruturais e fenomenológicas.

Concluímos no artigo que uma IA verdadeiramente transformadora – ética, autônoma e sensível ao contexto – exigirá muito mais do que algoritmos eficientes: exigirá um diálogo genuíno entre neurociência, filosofia da mente e ciência da computação. O cérebro humano, em sua complexidade dinâmica, nos convida a pensar a inteligência não apenas como processamento de informação, mas como processo vivido.

IHU – Quais são os principais objetivos com o seu projeto em curso sobre ética da IA? O que já foi descoberto e em que sentido esse projeto ajuda a avançar no conhecimento das intersecções entre Filosofia e Inteligência Artificial?

Steven S. Gouveia – O projeto rTAIM, financiado pela Fundação para a Ciência e a Tecnologia (FCT) de Portugal, tem como objetivo principal investigar como a aplicação de sistemas de Inteligência Artificial na medicina – especialmente aqueles baseados em modelos de aprendizado profundo, frequentemente descritos como “caixas-pretas” – impacta princípios normativos fundamentais, como autonomia, responsabilidade, explicabilidade e confiança no processo de tomada de decisão clínica. Ao longo de seis anos (2023-2029), o projeto busca:

(i) Analisar criticamente os desafios éticos que emergem da integração de sistemas de IA em contextos médicos, destacando como a opacidade desses sistemas pode comprometer a relação de confiança entre médicos e pacientes;

(ii) Propor soluções normativas para mitigar os riscos associados à “medicina de caixa-preta”, promovendo práticas que assegurem a transparência e a explicabilidade das decisões algorítmicas;

(iii) Fomentar o diálogo interdisciplinar, reunindo especialistas em filosofia, neurociência, medicina e ciência da computação para abordar as complexidades éticas da IA na medicina;

(iv) Desenvolver atividades acadêmicas e de divulgação, como seminários mensais, conferências internacionais e escolas de verão, visando disseminar os resultados da pesquisa e engajar a comunidade acadêmica e o público em geral.

Sistemas de IA e bioética

Entre as descobertas preliminares, destacamos a identificação de uma lacuna significativa na compreensão e na confiança dos profissionais de saúde em relação aos sistemas de IA: muitos médicos relutam em adotar essas tecnologias devido à falta de transparência nos processos decisórios algorítmicos, o que pode comprometer a responsabilidade clínica e a autonomia profissional. Além disso, o projeto tem enfatizado a importância de desenvolver abordagens de IA que não apenas priorizem a eficiência, mas também considerem os valores humanos e éticos fundamentais. Isso inclui a promoção de sistemas de IA que sejam explicáveis, auditáveis e alinhados com os princípios da bioética.

Uma das principais contribuições que o projeto já trouxe foi a identificação de um déficit de interdisciplinaridade crítica nos debates sobre IA: muitas vezes, os engenheiros e técnicos trabalham com noções implícitas de ética e racionalidade, sem o apoio conceitual necessário da filosofia. Ao mesmo tempo, parte da filosofia ainda opera com imagens desatualizadas ou caricaturais da tecnologia. Nosso esforço tem sido justamente promover um encontro produtivo entre esses mundos. Entre os resultados já obtidos, destacaria a organização de uma coletânea internacional – que estou editando – com contribuições inéditas de pesquisadores que tratam das intersecções entre filosofia e IA em quatro eixos: fundamentos, medicina, sociedade e educação.

Além disso, nossas pesquisas têm ajudado a consolidar a ideia de que pensar a ética da IA não é apenas discutir limites, mas também imaginar possibilidades e soluções (como apresentei no minicurso na Unisinos): de emancipação, de inclusão, de novas formas de cuidado e de justiça. Acredito que esse projeto contribui para avançar o campo ao mostrar que a filosofia não é um adorno reflexivo posterior ao desenvolvimento tecnológico, mas um instrumento epistemológico fundamental para guiar esse desenvolvimento desde o início. Pensar a IA eticamente é, em última instância, pensar o tipo de humanidade que queremos construir para o futuro.

IHU – Em que aspectos a Filosofia, sobretudo através da ética, pode e deve colaborar no desenvolvimento e uso da IA?

Steven S. Gouveia – A Filosofia, e em particular a ética, tem um papel absolutamente central no debate sobre Inteligência Artificial – não como um acessório posterior ao desenvolvimento técnico, mas como uma infraestrutura conceitual e normativa que deve orientar desde o início o modo como concebemos, projetamos e aplicamos essas tecnologias. Em primeiro lugar, a ética filosófica oferece as ferramentas necessárias para avaliar não apenas o que é possível fazer com a IA, mas o que é desejável. Essa distinção é fundamental. Em um cenário cada vez mais dominado pela lógica da eficiência, da inovação e do lucro, a ética entra como um campo de reflexão crítica que nos convida a pensar sobre as consequências morais, sociais e políticas do uso da IA. A filosofia pode colaborar em pelo menos três níveis: (a) no nível normativo, fornecendo princípios como justiça, autonomia, beneficência, responsabilidade e explicabilidade, que devem nortear a construção e a aplicação de sistemas de IA – especialmente em áreas sensíveis como saúde, em que estamos perante indivíduos em situação altamente fragilizada do ponto de vista epistémico; (b) No nível epistemológico, questionando os pressupostos que orientam os modelos computacionais: o que é inteligência? O que é uma decisão “correta”? Qual é o papel dos vieses nos dados? A filosofia ajuda a esclarecer e criticar os fundamentos do que se considera “racional” ou “objetivo” nas máquinas; (c) No nível político e social, alertando para os riscos de exclusão, vigilância, manipulação e desigualdade algorítmica. Nesse sentido, a Ética da IA deve ser também uma ética pública, preocupada com a justiça distributiva, o acesso equitativo à tecnologia e a preservação dos direitos fundamentais.

Além disso, a filosofia tem um papel decisivo na construção da confiança – um tema central no meu projeto em curso sobre IA e medicina (rTAIM). A confiança não se constrói apenas com bons resultados técnicos, mas com transparência, responsabilidade e sensibilidade aos contextos humanos. E é justamente nisso que a filosofia pode e deve contribuir: ao lembrar que toda tecnologia, por mais sofisticada que seja, está sempre inserida numa teia de valores, expectativas e relações sociais, que devem ser tomadas em conta no desenvolvimento destes sistemas de IA. Em última instância, a filosofia é o espaço onde podemos fazer as perguntas que muitas vezes o entusiasmo tecnológico ignora: para que queremos a IA?, a quem ela deve servir?, e que tipo de sociedade estamos dispostos a construir com ela?

É justamente nisso que a filosofia pode e deve contribuir: ao lembrar que toda tecnologia, por mais sofisticada que seja, está sempre inserida numa teia de valores, expectativas e relações sociais, que devem ser tomadas em conta no desenvolvimento destes sistemas de IA – Steven S. Gouveia


IHU – O que a Filosofia e a ética têm a dizer acerca do uso da IA para fins bélicos, como o que tem sido conduzido pelo exército israelense, por exemplo?

Steven S. Gouveia – O uso da Inteligência Artificial em contextos bélicos – como o que tem sido amplamente noticiado no caso do exército israelense – levanta algumas das questões mais urgentes e inquietantes da filosofia contemporânea, sobretudo no campo da ética e da teoria política. A automação da guerra, com apoio de sistemas de IA para reconhecimento de alvos, tomada de decisão e ataques autônomos, desafia profundamente os princípios que sustentam tanto o direito internacional, quanto a moralidade das ações humanas em tempos de conflito. A primeira contribuição da ética aqui é clara: há limites morais que não podem ser delegados a máquinas. A decisão de tirar uma vida, por mais que ocorra num cenário de guerra, é uma decisão profundamente humana, carregada de responsabilidade moral, e não deve ser terceirizada a algoritmos – especialmente aqueles que operam como verdadeiras “caixas-pretas”, sem transparência nem possibilidade de escrutínio ético.

Em segundo lugar, a filosofia política alerta para o risco de desumanização radical que esses sistemas promovem: ao transformar alvos em “pontos de dados”, e decisões letais em execuções algorítmicas, corremos o risco de eliminar não apenas a empatia, mas também os mecanismos de responsabilização. Quem responde por um erro cometido por uma IA bélica? O programador? O comandante? O Estado? A tecnologia não elimina a responsabilidade; ela a fragmenta – e com isso, muitas vezes, a obscurece algo que, num cenário de Guerra, pode ser a diferença entre morrerem inocentes, ou não. A ética da guerra – o chamado jus in bello – pressupõe princípios como proporcionalidade, distinção entre combatentes e civis, e responsabilidade.

Em 2018 publiquei o meu primeiro livro, de título Reflexões filosóficas: arte, mente e justiça, onde o primeiro capítulo da seção dedicada à Justiça é precisamente uma reflexão sobre como as armas autônomas são altamente problemáticas do ponto de vista ético. A IA, quando usada de forma opaca e desproporcional, pode violar todos esses critérios. E é exatamente por isso que filósofos, juristas e cidadãos conscientes devem intervir no debate: para evitar que a tecnologia da guerra se torne uma forma de tecnologia da indiferença.

IHU – Quais seriam os maiores desafios éticos da era da IA?

Steven S. Gouveia – A era da Inteligência Artificial traz alguns desafios éticos realmente grandes que precisamos enfrentar. Vou destacar alguns dos mais importantes:

1) Justiça e desigualdade algorítmica: A IA tem o potencial de reforçar as desigualdades que já existem na sociedade. Isso acontece porque muitos algoritmos são treinados com dados históricos, que podem ter preconceitos embutidos, como discriminação racial, de gênero ou de classe. O grande desafio aqui é fazer com que a IA seja mais justa e que não perpetue essas desigualdades.

2) Privacidade e vigilância: Com a IA, há uma coleta de dados em massa, o que pode ser usado para nos vigiar o tempo todo – como no reconhecimento facial e monitoramento de comportamento. Isso coloca em risco nossa privacidade e liberdade. O desafio ético é encontrar um equilíbrio entre usar a IA para segurança, sem invadir nossos direitos pessoais.

3) Responsabilidade e autonomia: À medida que mais decisões começam a ser tomadas por IA, como em áreas da medicina ou no campo militar, a questão da responsabilidade fica mais complicada. Se uma IA comete um erro ou causa um dano, quem é o responsável? Isso fica difícil de responder quando a tecnologia se torna cada vez mais autônoma. A ética precisa lidar com isso, já que a responsabilidade não pode ser jogada apenas para a IA, ou seus criadores.

4) Transparência e explicabilidade: Muitos sistemas de IA, como os baseados em aprendizado profundo, funcionam como “caixas-pretas”. Ou seja, ninguém sabe exatamente como chegam a uma decisão. Isso é problemático, especialmente em áreas como a medicina, onde uma IA pode afetar diretamente a saúde das pessoas. O grande desafio ético aqui é garantir que as decisões da IA possam ser entendidas e verificadas pelos humanos.

5) Desumanização e perda de agência: Quando começamos a delegar muitas decisões importantes à IA, corremos o risco de perder a nossa capacidade de decidir e agir de forma crítica. A IA pode acabar desumanizando o processo, fazendo com que as pessoas deixem de questionar e aceitar passivamente o que a tecnologia diz. O desafio é garantir que as pessoas continuem a ter o controle e a agência para tomar suas próprias decisões, mesmo com toda essa tecnologia ao redor.

6) Impacto no trabalho e na economia: A IA também vai mudar a forma como trabalhamos. Se muitas tarefas forem automatizadas, isso pode tirar empregos e aumentar a desigualdade, já que quem controla a tecnologia vai ficar com a maior parte dos benefícios. O desafio ético aqui é garantir que essa transição seja justa, para que todos possam se beneficiar, e não só uma minoria.

Esses são apenas alguns dos desafios mais urgentes. O ponto principal é que a tecnologia não pode determinar como a sociedade vai funcionar. Precisamos garantir que, ao desenvolver a IA, estamos pensando em princípios éticos que protejam a dignidade humana, a justiça e a Liberdade em todos os aspectos envolvidos na tecnologia: no antes, no durante, e no depois.

IHU – Que aspectos merecem ser destacados em relação aos desafios éticos da IA no campo da medicina (neurociência)?

Steven S. Gouveia – No campo da medicina, especialmente na neurociência, os desafios éticos que surgem com o uso da IA são bastante específicos e importantes, pois lidamos com dados extremamente sensíveis, como as informações sobre o funcionamento do cérebro e a saúde mental das pessoas. Um dos principais desafios está relacionado à privacidade e ao uso de dados altamente sensíveis: quando usamos IA para analisar informações como imagens de ressonância magnética ou até dados de neuroestimulação, estamos lidando com dados que dizem respeito à identidade e ao funcionamento mais íntimo de um indivíduo. Isso exige um nível de proteção muito alto, além de garantir que os pacientes saibam como seus dados estão sendo utilizados e que tenham controle sobre isso. Outro grande desafio é a tomada de decisões automatizada: a IA pode ajudar a diagnosticar doenças neurológicas, como Alzheimer, ou até prever tratamentos para distúrbios psiquiátricos. No entanto, em situações tão críticas, a questão ética se coloca: até que ponto devemos confiar em uma máquina para tomar decisões sobre a saúde de uma pessoa?

Os sistemas de IA podem ser extremamente eficientes, mas sempre há o risco de erros que possam impactar gravemente a vida de alguém. Assim, é necessário um equilíbrio entre a confiança na tecnologia e a supervisão humana. A explicabilidade da IA é outro ponto crucial, especialmente quando ela é usada para fazer diagnósticos ou sugerir tratamentos. Muitas vezes, os sistemas de IA funcionam de maneira opaca, como “caixas-pretas”, o que significa que nem sempre sabemos como a IA chegou à sua conclusão. No campo da medicina, e mais especificamente na neurociência, isso é problemático: médicos e pacientes precisam entender claramente como uma IA fez suas recomendações, para que possam tomar decisões informadas. Sem essa transparência, podemos enfrentar dificuldades tanto no entendimento dos pacientes, quanto na confiança dos profissionais de saúde no sistema. Para tal, é preciso exigir uma melhor Inteligência Artificial, que eu chamo de Inteligência Artificial explicativa, que possa ser útil na sua eficácia, mas transparente o suficiente para nos providenciar explicações.

Além disso, os vieses nos dados usados para treinar a IA representam um risco significativo: se os dados usados são predominantemente de um determinado grupo de pessoas, como por exemplo, de uma etnia ou classe social específica, a IA pode acabar oferecendo diagnósticos imprecisos ou tratamentos inadequados para outros grupos. Isso é ainda mais sensível quando falamos de doenças neurológicas e mentais, que podem se manifestar de maneira diferente dependendo da cultura, histórico e características individuais. A IA precisa ser treinada com dados diversos e representativos para evitar que esses vieses se perpetuem.

A ética da IA na medicina precisa garantir que esses avanços não beneficiem apenas uma pequena parte da população, mas que sejam acessíveis a todos – Steven S. Gouveia

Ética da IA na medicina

A acessibilidade das tecnologias também é um grande desafio. A IA tem o potencial de transformar o tratamento de várias doenças cerebrais, mas essa tecnologia pode ser cara e limitada a certas regiões ou grupos sociais. Isso pode gerar uma divisão ainda maior no acesso à saúde de qualidade, aprofundando desigualdades existentes. A ética da IA na medicina precisa garantir que esses avanços não beneficiem apenas uma pequena parte da população, mas que sejam acessíveis a todos.

Por fim, a autonomia do paciente e o consentimento informado são fundamentais em qualquer tratamento médico, e com a IA não é diferente: quando a IA é utilizada para tomar decisões sobre a saúde de pacientes, especialmente aqueles com doenças neurodegenerativas ou condições psiquiátricas que limitam sua capacidade de decisão, surge a questão de como garantir que essas decisões respeitem a autonomia do paciente. Além disso, garantir que o consentimento informado seja obtido de maneira clara e compreensível se torna um grande desafio, já que muitos pacientes podem não entender completamente o funcionamento das tecnologias envolvidas. Esses aspectos éticos exigem que, ao integrar IA na medicina, especialmente na neurociência, pensemos cuidadosamente sobre como usamos essa tecnologia, garantindo que respeite os direitos, a privacidade e a dignidade dos pacientes.

IHU – Recentemente, Bill Gates afirmou que na próxima década a IA vai substituir médicos e professores. Como percebe os impactos dessa mudança de paradigma no mundo do trabalho e nas relações humanas?

Steven S. Gouveia – A afirmação de Bill Gates sobre a IA substituir médicos e professores levanta questões importantes. Na medicina, a IA pode melhorar diagnósticos e tratamentos, mas não substitui a empatia e a comunicação humana, que são fundamentais para o cuidado dos pacientes. No ensino, a IA pode personalizar o aprendizado, mas não consegue substituir o papel emocional e social dos professores. No mundo do trabalho, a automação pode aumentar a eficiência, mas também pode levar à perda de empregos, exigindo requalificação e adaptação dos trabalhadores. Esse contexto exige reflexões profundas sobre redistribuição da riqueza e da natureza do trabalho: talvez soluções como a Renda Básica Universal tenham de ser consideradas e pesquisadas para um future próximo.

Quanto às relações humanas, o uso excessivo de IA pode diminuir as conexões interpessoais e aumentar o isolamento social (vemos isso, por exemplo, no Japão, onde os homens têm preferência por ter intimidade com robôs sexuais, ao invés de outros seres humanos) e, por isso, deve ser refletida interdisciplinarmente, incluindo vários especialistas que possam abarcar os vários aspectos técnicos, sociais, culturais, psicológicos e filosóficos da Inteligência Artificial.

IHU – Ainda considerando o cenário descrito por Bill Gates, como percebe o uso de assistentes de IA como ChatGPTGeminiDeepSeek em relação a produções filosóficas e sua originalidade?

Steven S. Gouveia – O uso de assistentes de IA como ChatGPT, Gemini e DeepSeek na produção filosófica levanta questões interessantes sobre originalidade e autoria: por um lado, essas IAs podem ser ferramentas poderosas para explorar ideias, organizar pensamentos e até mesmo gerar conteúdo filosófico com base em grandes volumes de dados e textos (vemos aplicações interessantes na Arte Criativa, por exemplo, onde sistemas de IA podem completar sinfonias inacabadas de compositores falecidos, como o caso do projeto Beethoven X). Porém, a questão da originalidade é mais complexa: as IAs, como essas, não criam ideias de maneira independente, mas combinam e reconfiguram o conhecimento existente, produzindo sempre a partir de uma “imagem” do passado.

As produções criativas geradas por IA podem ser úteis como ponto de partida ou como ferramentas de apoio, mas dificilmente podem ser consideradas originais no sentido em que usamos o termo em outros campos de aplicação. Estes assistentes de IA podem muito úteis, por exemplo, em traduzir a pesquisa de autores que estão de certa forma excluídos da produção acadêmica internacional: está mais que identificado que autores acadêmicos que trabalham em países de língua inglesa têm muito maior probabilidade de serem lidos e, por consequência, citados. No Brasil, um estudo muito interessante mostrou que acadêmicos com nomes estrangeiros, mesmo que vivendo e trabalhando no Brasil, têm maior probabilidade de serem citados do que colegas com nomes de origem portuguesa. O caso do auxílio na tradução pode ser um caso interessante que permite corrigir uma injustiça linguística na filosofia acadêmica.

IHU – UNISINOS
https://www.ihu.unisinos.br/651086-pensar-a-ia-eticamente-e-refletir-sobre-o-tipo-de-humanidade-que-queremos-construir-para-o-futuro-entrevista-especial-com-steven-s-gouveia

Pensar a IA eticamente é refletir sobre o tipo de humanidade que queremos construir para o futuro. Entrevista especial com Steven S. Gouveia

Revertida justa causa de mulher que bebeu em serviço fora do horário

Decisão incluiu indenização de R$ 3 mil por danos morais, reconhecendo a conduta abusiva da empresa e a falta de gradação na penalidade imposta.

Da Redação

TRT da 3ª região anulou justa causa aplicada a funcionária de loja de calçados em Belo Horizonte/MG, que foi flagrada consumindo bebida alcoólica em evento no trabalho fora do expediente. A empresa foi condenada a pagar verbas rescisórias referentes à dispensa sem justa causa e indenização por danos morais no valor de R$ 3 mil.

A loja argumentou que a funcionária descumpriu as normas de conduta ao ingerir bebida alcoólica no ambiente de trabalho e durante o horário de expediente, apresentando imagens do circuito interno de segurança como prova.

O preposto da empresa admitiu, no entanto, que as normas de conduta eram comunicadas verbalmente aos funcionários. Além disso, confirmou que, durante os quatro anos de trabalho da funcionária, não havia registros de outras ocorrências disciplinares, incluindo o consumo de álcool.

Uma testemunha corroborou a versão da empresa, afirmando ter visto a trabalhadora bebendo durante um evento na loja, juntamente com outros dois colegas.

A trabalhadora, em seu depoimento, admitiu o consumo de álcool, porém, alegou que ocorreu após o término do seu horário de trabalho.

TRT-3 reverte justa causa por bebida em serviço fora do horário.
A 20ª vara do Trabalho de Belo Horizonte/MG decidiu inicialmente em favor da trabalhadora, revertendo a justa causa. A empresa recorreu da decisão, mas o TRT manteve a sentença.

O juiz convocado Adriano Antônio Borges, relator do processo, considerou que “o conjunto probatório não é suficiente para convencer de que houve alteração importante no comportamento da empregada ou que houve exposição e constrangimento perante os clientes”.

O relator destacou que, “mesmo sendo reprovável a conduta, o fato não se mostrou suficiente para o rompimento contratual por justa causa. Não houve a gradação das penas e não foi considerado o histórico funcional da autora, que não contava com faltas anteriores”.

Segundo o magistrado, a empresa não comprovou a gravidade da falta para justificar a dispensa imediata por justa causa e “não foi observado o caráter pedagógico da pena”.

Quanto aos danos morais, o relator entendeu que a aplicação indevida da justa causa gera danos morais presumidos, “sendo desnecessária a comprovação de outros fatos de constrangimento. O dano decorre naturalmente da conduta ilícita da ré”.

A dispensa por justa causa, conforme o magistrado, impede o trabalhador de receber verbas rescisórias importantes, como a multa do FGTS. “Considera-se que foi configurado o nexo causal entre a conduta da empregadora e o resultado danoso à ex-empregada”, concluiu o relator, fixando a indenização em R$ 3 mil.

O juiz complementou que “a reparação pecuniária deve guardar razoável proporcionalidade entre o dano causado, a extensão, as consequências e a repercussão sobre a vida da vítima”.

Informações: TRT da 3ª região.

MIGALHAS
https://www.migalhas.com.br/quentes/428966/revertida-justa-causa-de-mulher-que-bebeu-em-servico-fora-do-horario

Pensar a IA eticamente é refletir sobre o tipo de humanidade que queremos construir para o futuro. Entrevista especial com Steven S. Gouveia

TST: Banco do Brasil é condenado por violar intervalo intrajornada

A condenação genérica em ação coletiva foi considerada válida, e o banco deverá pagar a hora suprimida com adicional de 50%.

Da Redação

A 2ª turma do TST reconheceu o direito à reparação de danos a empregados do Banco do Brasil que não receberam o intervalo intrajornada mínimo de uma hora em jornadas superiores a seis horas diárias. Segundo o colegiado, é cabível o reconhecimento genérico da violação do direito em ação coletiva, sendo a individualização dos valores devidos reservada à fase de cumprimento da sentença.

A decisão foi tomada no âmbito de uma ação civil pública proposta pelo Sindicato dos Empregados em Estabelecimentos Bancários do Estado da Paraíba. A entidade pleiteava a regularização da concessão do intervalo legal e o pagamento das horas extras correspondentes aos trabalhadores afetados.

Banco do Brasil é condenado em ação civil pública por violar intervalo intrajornada.
O TRT da 13ª região já havia reconhecido que o banco descumpria a norma ao não conceder o intervalo adequado. Condenou, por isso, o Banco do Brasil a observar a concessão do período mínimo de descanso. No entanto, rejeitou a cobrança dos valores devidos aos empregados, por entender que se tratava de um direito individual cuja apuração dependeria de provas específicas, não sendo possível a condenação em ação coletiva.

Ao julgar recurso interposto pelo MPT, o ministro José Roberto Pimenta, relator no TST, entendeu que é possível proferir sentença genérica em ações coletivas que envolvam direitos individuais homogêneos. Segundo o relator, a apuração dos titulares do direito e dos valores a serem pagos deve ocorrer na fase de liquidação de sentença, conforme a sistemática processual.

De acordo com os autos, ficou comprovado que o banco deixou de conceder o intervalo mínimo a diversos empregados, fato que gera o direito à remuneração da hora suprimida com adicional de 50%. Para a 2ª turma, houve contradição na decisão regional, que reconheceu a ilegalidade, mas afastou o direito à reparação. Por unanimidade, o colegiado reformou a decisão do TRT da Paraíba.

Processo: EDCiv-RR-16400-12.2012.5.13.0025
Acesse o acórdão:chrome-extension://efaidnbmnnnibpcajpcglclefindmkaj/https://www.migalhas.com.br/arquivos/2025/4/003DED262B13A2_RR-16400-12_2012_5_13_0025.pdf

MIGALHAS
https://www.migalhas.com.br/quentes/429032/tst-banco-do-brasil-e-condenado-por-violar-intervalo-intrajornada

Pensar a IA eticamente é refletir sobre o tipo de humanidade que queremos construir para o futuro. Entrevista especial com Steven S. Gouveia

Justiça do Trabalho reconhece validade de norma coletiva que proíbe terceirização

Não se nega a importância e necessidade da negociação coletiva para solucionar conflitos de trabalho, conforme assegura e prestigia a Carta Constitucional brasileira de 1988, como consequência da liberdade sindical inscrita no seu artigo 8º. A importância da negociação coletiva é reconhecida pelo Supremo Tribunal Federal, in verbis:

“EMENTA: DIREITO DO TRABALHO. ACORDO COLETIVO. PLANO DE DISPENSA INCENTIVADA. VALIDADE E EFEITOS. 1. … 2. … 3. … 4. A Constituição de 1988, em seu artigo 7º, XXVI, prestigiou a autonomia coletiva da vontade e a autocomposição dos conflitos trabalhistas, acompanhando a tendência mundial ao crescente reconhecimento dos mecanismos de negociação coletiva, retratada na Convenção nº 98/1949 e na Convenção nº 154/1981 da Organização Internacional do Trabalho. O reconhecimento dos acordos e convenções coletivas permite que os trabalhadores contribuam para a formulação das normas que regerão a sua própria vida. (…)” (RE 590.415, Plenário, 30/4/2015. Relator: ministro Roberto Barroso).

Não obstante sua importância e necessidade, a negociação coletiva encontra limites e temperamentos nas normas de caráter indisponível, que, por isso, não podem ser derrogadas ao talante das partes, isso porque o Direito do Trabalho tem por fundamento a proteção do trabalhador, visando contrabalancear o desequilíbrio econômico, social e político que há entre empregados e empregadores.

O negociado e o legislado

Com a Lei nº 13.467/17 sobreveio a possibilidade de condições negociadas entre patrões e empregados prevalecerem sobre as normais legais existentes, nos casos previstos nos incisos do artigo 611-A da CLT.

A nova alteração legal trouxe permissivo mais amplo para as negociações coletivas, com a prevalência do negociado sobre o legislado até em desfavor dos trabalhadores, mas precisa ser respeitada a adequação setorial negociada e o princípio da vedação ao retrocesso social, expresso em diversas convenções internacionais ratificadas pelo Brasil.

A negociação coletiva não pode regular matérias de ordem publica, de natureza indisponível, mas se for acima e para melhorar a condição dos trabalhadores, não haverá impedimento nem limites, pois estará de acordo com o princípio da norma mais favorável, que é o fundamento primordial da negociação coletiva, qual seja, atuar além da norma legal para melhorar a condição social dos trabalhadores, como preceitua o caput do artigo 7º da Constituição.

Neste ponto cabe ponderar e lembrar que o artigo 611-B da CLT elencou as matérias que não podem ser objeto de negociação coletiva, que versem sobre direitos e garantias fundamentais dos trabalhadores, assegurados pela Constituição, destacando-se os incisos XXIII e XIV, que afirmam constituir objeto ilícito de CCT ou ACT a supressão ou a redução dos seguintes direitos, entre outros: proibição de trabalho noturno, perigoso ou insalubre a menores de 18 anos e de qualquer trabalho a menores de 16 anos, salvo na condição de aprendiz, a partir de 14 anos (inciso XXIII); medidas de proteção legal de criança e adolescentes (inciso XXIV).

Limite para a terceirização

Nessa linha e reconhecendo a validade de normas coletivas contrárias à lei, mas, para beneficiar os trabalhadores, decidiu a Justiça do Trabalho da 15ª Região (Proc. 0010445-48.2024.5.15.0049) manter a proibição de terceirização de atividades de um hospital, nos termos do que foi estabelecido pelas partes em acordo coletivo de trabalho, afirmando que:

“Quanto à validade da cláusula normativa que proíbe a terceirização, não assiste razão à parte ré. Afinal, em que pese a licitude da terceirização de atividades pelas empresas, conforme entendimento consagrado na Súmula 331 do C. TST, inexiste impedimento para que os sindicatos das categorias profissional e econômica, diante da garantia de negociação coletiva assegurada por meio do artigo 7º, XXVI, da Constituição da República e do artigo 611, caput, da CLT, possam deliberar no sentido de vedar a terceirização de todas ou de determinadas atividades do setor de atuação.

A referida normatização é perfeitamente válida, estando em conformidade com os requisitos estabelecidos no artigo 104 do CC, além de decorrer, de forma ampliada, da própria livre iniciativa, fundamento da República Federativa do Brasil (artigo 1º, IV, da CF/88) e da Ordem Econômica artigo 170, caput, da CF, o que afasta o argumento da reclamada no sentido de que a negociação deve ser livre e não pode ser coibida, inclusive por meio de norma coletiva.

Com relação aos termos dos instrumentos normativos firmados com os sindicatos das respectivas categorias, estes possuem força de Lei, havendo, portanto, de ser cumpridos na forma como ajustados. Destaca-se, inclusive, que após a edição da Lei 13.467/2017 (Reforma Trabalhista), a negociação coletiva passou a ter um status ainda mais relevante, dada a valorização do negociado sobre o legislado (art. 611-A da CLT)”.

É certo que a lei atual no Brasil permite, de forma ampla, a terceirização de atividades no meio trabalhista, mas nada impede que as partes, por meio da negociação coletiva, estabeleçam limites para uso do instituto, como demonstra o caso acima.

14º Fórum Sindical do BRICS

14º Fórum Sindical do BRICS

Nos dias 23 e 24 de abril de 2025, Brasília é palco do 14º Fórum Sindical do BRICS, reunindo representantes das centrais sindicais dos países membros e parceiros do bloco econômico. O evento tem como objetivo promover a cooperação e o diálogo entre as nações, abordando temas cruciais para o futuro do trabalho.​

Denilson Pestana da Costa, Diretor de Relações Internacionais da Nova Central Sindical de Trabalhadores (NCST), representou a entidade no fórum. Sua participação foi fundamental para reforçar o compromisso da NCST com a construção de uma governança global mais inclusiva e sustentável.​

Durante o evento, foram discutidos temas como a transição justa para uma economia sustentável, os impactos da inteligência artificial no mercado de trabalho, a efetividade do multilateralismo e a promoção da justiça social, paz e democracia. Esses debates são essenciais para garantir que os direitos dos trabalhadores sejam preservados em um mundo em constante transformação.​

A presença de Denilson Pestana da Costa no 14º Fórum Sindical do BRICS destaca a importância da atuação sindical no cenário internacional e reafirma o papel da NCST na defesa dos interesses da classe trabalhadora.​

Pensar a IA eticamente é refletir sobre o tipo de humanidade que queremos construir para o futuro. Entrevista especial com Steven S. Gouveia

‘A economia de Francisco’: o que é o movimento econômico inspirado e apoiado pelo papa

Defensor dos mais pobres durante seus 12 anos no comando da Igreja Católica e até chamado de comunista em diversas ocasiões, o papa Francisco — que faleceu nesta segunda-feira (21), aos 88 anos — inspirou a criação de um movimento econômico liderado por jovens economistas, empreendedores e pesquisadores.

Batizado de “A economia de Francisco” (EoF, na sigla em inglês), o movimento surgiu após um convite do papa, que pedia que as novas gerações criassem uma economia mais inclusiva e globalizada.

Assim como Jorge Mario Bergoglio, que escolheu o nome Francisco como pontífice, o grupo se inspira na história de São Francisco de Assis. Ele foi o criador da Ordem Franciscana da Igreja Católica, que preza pela renúncia à riqueza para servir aos pobres. Ele também é conhecido como o santo dos animais e do meio ambiente.

Hoje presente em mais de 20 países, inclusive o Brasil, o movimento “A economia de Francisco” trabalha para investir em empreendimentos e pesquisas que acelerem o desenvolvimento de um sistema econômico que prioriza a dignidade humana, a justiça social, a paz e o respeito ao meio ambiente.

Entenda nesta reportagem:

Como surgiu “A economia de Francisco”

“Caros amigos, escrevo para convidá-los para uma iniciativa que tanto desejo. Um evento que me vai me permitir encontrar jovens homens e mulheres que estudam ou interessados em uma economia diferente — uma que gera vida e não mata, que inclui e não exclui, que humaniza e não desumaniza, que cuida do meio ambiente e não o saqueia. Um evento para nos ajudar a nos encontrar, a estar juntos e a fazer um ‘pacto’ para mudar a economia de hoje e dar alma à economia de amanhã.”

Com essas palavras, enviadas do Vaticano em 1° de maio de 2019, o papa Francisco iniciava uma carta convidando todos os jovens católicos interessados em pensar em uma forma diferente de fazer economia.

O convite era para um encontro com o próprio papa e outros profissionais experientes da área econômica na cidade de Assis, na Itália, para discutir, entre outros pontos:

  • novos entendimentos sobre a economia e o progresso;
  • o combate à cultura do desperdício;
  • formas de dar voz aos desassistidos;
  • propostas de um novo estilo de vida, guiado pela respeito à natureza e ajuda aos mais pobres.

O evento foi adiado devido à pandemia de Covid-19, mas o convite foi suficiente para iniciar o movimento.

Milhares de jovens estudantes, economistas, pesquisadores e empreendedores de várias partes do mundo se reuniram em eventos online ao longo de três anos, iniciando pesquisas e apoiando projetos pessoais e coletivos que acelerassem a implementação dessa nova economia.

Em setembro de 2022, o encontro presencial finalmente aconteceu, e os jovens assinaram um pacto com o papa, comprometendo-se a transformar suas próprias relações com o sistema e o futuro da economia em uma “economia do Evangelho”, que não financie guerras, combata a proliferação de armas e se coloque a serviço de todas as pessoas.

“Uma economia que não deixe ninguém para trás, que reconheça e proteja o trabalho digno e seguro para todos, uma economia onde as finanças sejam amigas da economia real e do trabalho, uma economia que salvaguarde as culturas, as tradições dos povos, todas as espécies vivas e os recursos naturais da Terra”, determinou o pacto. (veja o texto completo mais abaixo)

O que faz “A economia de Francisco”

Desde a implementação do movimento, os participantes se dividem em três áreas principais:

  • 📚 Educação e pesquisa;
  • 💼 Empreendedorismo;
  • 📍 Eventos locais e globais.

📚 A maioria dos projetos da comunidade estão na área de educação e pesquisa.

O principal deles é o EoF Academy, uma rede internacional de jovens acadêmicos que oferece, anualmente, um plano de atividades educacionais e bolsas de estudo para pesquisadores de mestrado, doutorado e pós-doutorado interessados em se aprofundar nos pilares da economia de Francisco.

A comunidade também realiza, anualmente, um curso de verão (na segunda metade do ano, por conta das estações no hemisfério norte). O EoF Summer School é um curso intensivo de poucos dias voltado para estudantes ou profissionais das áreas de ciências sociais e econômicas, abordando temas como comércio e lucros sob a perspectiva da nova economia.

Ainda na área de educação, há o EoF School, uma escola online com aulas mensais em inglês para interessados de qualquer parte do mundo sobre temas econômicos a partir da visão da economia de Francisco. As aulas incluem palestras e atividades em grupo.

💼 Na área de empreendedorismo, a comunidade promove eventos e iniciativas para apoiar negócios alinhados aos pilares da economia defendida pelo movimento.

Os participantes são incentivados e ensinados, por meio de aulas, palestras, workshops, mentorias e encontros de relacionamento com outros profissionais, a desenvolver seus próprios negócios nas regiões onde moram.

O movimento busca parcerias com fundações, associações e atores privados para apoiar e investir na criação e expansão desses negócios, todos fundamentados nos pilares do movimento.

📍 Os eventos regionais e globais organizados pelo movimento buscam reunir jovens de diferentes territórios e religiões para conscientizar e transformar hábitos que podem ser destrutivos para uma economia mais justa e sustentável.

Em 2025, por exemplo, haverá um evento global em novembro, com milhares de participantes discutindo formas de restaurar a economia para que ela possa “servir à vida das pessoas”, e não o contrário.

Para isso, a organização convida os jovens do mundo inteiro a, entre abril e novembro, adotarem propósitos pessoais — como optar por bancos e negócios éticos e reduzir o consumismo — e realizarem caminhadas até locais em suas cidades que promovem um modelo financeiro que respeite a dignidade humana.

Quais Os pilares do movimento apoiado pelo papa

São 12 os pilares que guiam as atividades do movimento “A economia de Francisco”:

  • Políticas para a felicidade: a defesa pela possibilidade de a economia viabilizar momentos e espaços para as relações interpessoais e práticas que estimulem qualidade de vida e felicidade;
  • Energia e pobreza: a defesa pela transição energética global para uma energia verde e limpa, com compartilhamento de tecnologias entre governos e empresas de países ricos e pobres para que todos tenham acesso;
  • Vida e estilo de vida: a transformação no modo de consumir, adotando uma postura mais consciente que evite desperdícios, exageros e prejuízos ao meio ambiente;
  • Negócios e paz: a condenação de “investimentos perversos”, que valorizem armas ou o lucro acima da vida das pessoas;
  • Mulheres na economia: a inclusão de mulheres nos negócios, com acesso a educação e outras ferramentas para prosperar;
  • Negócios em transição: o auxílio e incentivo para a transição de negócios já existentes em um modelo mais sustentável;
  • Trabalho e cuidado: a defesa por uma cultura de trabalho que priorize a dignidade das pessoas, reconheça a contribuição de cada trabalhador, gere valor econômico compartilhado e elimine a pobreza no trabalho;
  • CO2 e desigualdades: o incentivo a estudos sobre as melhores formas de conduzir negócios e a economia de forma a proteger a humanidade de forma integral;
  • Gestão e doação: a defesa por um estilo de liderança que valorize as pessoas acima da “supremacia” de alguém;
  • Vocação e lucro: o auxílio aos jovens que buscam entender qual sua vocação para o trabalho e como conseguir uma boa vida financeira a partir disso;
  • Agricultura e justiça: a criação e apoio para projetos agrícolas que promovem acesso à terra e comida para todos;
  • Finanças e humanidade: a defesa pela conversa com mercados financeiros para a promoção de negócios que favoreçam o desenvolvimento humano de forma integral para todos.

O que dizia Francisco sobre economia, comunismo e o papel da Igreja

A escolha do nome Francisco como sua alcunha como papa revela a visão do argentino Jorge Mario Bergoglio sobre dinheiro e economia.

Membro da ordem religiosa dos Jesuítas, que também pregam o voto de pobreza, o papa Francisco escolheu homenagear o santo que renunciou às riquezas e propriedades de sua família para servir a Deus e aos mais pobres.

Francisco nunca escondeu sua visão sobre as questões econômicas da Igreja e do mundo.

Logo no início de seu papado, em julho de 2013, Francisco disse que “dói ver um padre ou uma freira com um carro de último modelo” e defendeu que “eles precisam cumprir seu voto de pobreza”.

“(São) Francisco era um homem pobre. Como eu gostaria que a Igreja fosse pobre… e para os pobres”.

Ao convocar os jovens para “criar uma nova economia”, iniciando o movimento “A economia de Francisco”, o papa defendeu que a economia deveria gerar vida, e não matar.

Em outro evento de finanças, o “Diálogos por uma Finança Integralmente Sustentável”, o pontífice disse que “o dinheiro deve servir, não governar”, referindo-se aos países governados por interesses financeiros, e não sociais.

“Uma reforma financeira que não ignore a ética exigiria uma vigorosa mudança de atitude por parte dos líderes políticos”, afirmou.

A defesa por uma economia mais justa, do ponto de vista social, continuou até seus últimos meses de vida.

No livro autobiográfico “Vida. A Minha História na História”, lançado em 2024, Francisco — que foi taxado e questionado em diversas ocasiões sobre ser comunista — escreveu que “falar dos pobres não significa automaticamente ser comunista” e que “os pobres são a bandeira do Evangelho e estão no coração de Jesus”.

“Nas comunidades cristãs se partilhava a propriedade: isto não é comunismo, isto é cristianismo puro!”

Em setembro do ano passado, Francisco realizou uma homilia marcante sobre a pobreza e o comunismo, afirmando que é necessário estar atento aos mais pobres e vulneráveis porque é o que a própria Bíblia ensina.

“E isto não é comunismo, é puro Evangelho! Não é o Papa, mas Jesus, que os coloca no centro, nesse lugar. É uma questão da nossa fé e não pode ser negociada. Se não aceitardes isto, não sois cristãos!”

O papa também disse que todos dependem dos pobres, “até os ricos”, e criticou a especulação dos mercados financeiros.

“Enquanto não se resolverem radicalmente os problemas dos pobres, renunciando à autonomia absoluta dos mercados e da especulação financeira, e atacando as causas estruturais da iniquidade, não se resolverão os problemas do mundo e, em última análise, problema algum. A iniquidade é a raiz dos males sociais”.

O pacto para “A economia de Francisco”

Leia o texto integral do pacto assinado entre o papa Francisco e os jovens do movimento:

“Nós, jovens economistas, empreendedores e agentes de mudança, convocados aqui em Assis, de todas as partes do mundo, conscientes da responsabilidade que recai sobre a nossa geração, comprometemo-nos hoje, individualmente e coletivamente, a viver a nossa vida para que a economia de hoje e de amanhã se torne uma economia do Evangelho e, portanto:

  • uma economia de paz e não de guerra;
  • uma economia que se oponha à proliferação de armas, especialmente as mais destrutivas, uma economia que se preocupe com a criação e não a utilize indevidamente;
  • uma economia ao serviço da pessoa humana, da família e da vida, respeitosa com cada mulher, homem e criança, os idosos e especialmente os mais frágeis e vulneráveis;
  • uma economia onde o cuidado substitui a rejeição e a indiferença;
  • uma economia que não deixe ninguém para trás, para construir uma sociedade em que as pedras rejeitadas pela mentalidade dominante se tornem pedras angulares;
  • uma economia que reconheça e proteja o trabalho seguro e digno para todos;
  • uma economia onde as finanças sejam amigas e aliadas da economia real e do trabalho e não contra eles;
  • uma economia que valoriza e salvaguarda as culturas e tradições dos povos, todos os seres vivos e os recursos naturais da Terra;
  • uma economia que combata a miséria em todas as suas formas, reduza a desigualdade e saiba dizer como Jesus e Francisco: “Bem-aventurados os pobres”;
  • uma economia guiada por uma ética da pessoa humana e aberta à transcendência;
  • uma economia que crie riqueza para todos, que gere alegria e não apenas riquezas, porque a felicidade que não é compartilhada é incompleta.

Acreditamos nesta economia. Não é uma utopia, porque já a estamos construindo. E alguns de nós, em manhãs particularmente ensolaradas, já vislumbramos o início da terra prometida.”

G1

https://g1.globo.com/economia/noticia/2025/04/23/a-economia-de-francisco-o-que-e-o-movimento-economico-inspirado-e-apoiado-pelo-papa.ghtml