NOVA CENTRAL SINDICAL
DE TRABALHADORES
DO ESTADO DO PARANÁ

UNICIDADE
DESENVOLVIMENTO
JUSTIÇA SOCIAL

Recusa a voltar ao trabalho anula pedido de rescisão indireta, diz juíza

Recusa a voltar ao trabalho anula pedido de rescisão indireta, diz juíza

AFASTAMENTO PERMANENTE

Por considerar que um trabalhador se recusou a voltar ao trabalho, a 1ª Vara do Trabalho de Itumbiara (GO) negou o pedido de um ex-funcionário para que fosse declarada a rescisão indireta do contrato laboral.

A sentença foi proferida pela juíza Dânia Carbonera Soares. O ex-empregado foi condenado, ainda, a pagar honorários de quase R$ 40 mil à parte contrária.

Segundo a decisão, o funcionário ficou afastado pelo INSS entre abril e junho de 2022. Após o término do período de auxílio-doença previdenciário, ele não aceitou voltar ao trabalho.

O homem foi admitido em dezembro de 2020 para desempenhar a função de caldeireiro. Um ano e 4 meses depois, alegou sentir desconforto nos ombros e joelhos, supostamente devido ao aumento da intensidade do trabalho.  Ele, então, buscou o INSS.

Segundo o processo, o próprio reclamante deixa claro que não contactou a empresa entre o término do benefício, em 18 de junho, e o dia 6 de outubro de 2022. Em 17 de outubro do mesmo ano, foi concedido, novamente, ao autor benefício de auxílio-doença previdenciário e afastamento, válido até 17 de janeiro de 2023.

Nove dias após o término do benefício, no dia 26 de janeiro, o trabalhador apresentou o pedido de rescisão indireta do contrato de trabalho.

A magistrada considerou que o limbo previdenciário foi ocasionado pelo próprio trabalhador, pois teria recusado o retorno ao trabalho, e também julgou improcedente o pedido relativo ao reconhecimento da rescisão indireta do contrato.

Foi acatado também o argumento da defesa da empresa sobre as patologias apontadas pelo autor não possuírem nexo de causalidade com as atividades laborais desenvolvidas por ele na empresa, “uma vez que são de origem degenerativa e com manifestação atrelada ao avanço da idade do trabalhador”.

Dânia Carbonera Soares condenou, ainda, o trabalhador a pagar ao advogado da empresa honorários de sucumbência arbitrados em 7% sobre os pedidos julgados improcedentes (R$ 537.948,16), o que equivale a aproximadamente R$ 40 mil. A empresa foi assessorada pelo advogado Diêgo Vilela.

Clique aqui para ler a decisão
Processo 0010053-39.2023.5.18.0121

CONJUR

https://www.conjur.com.br/2024-abr-15/recusa-a-voltar-ao-trabalho-anula-pedido-de-rescisao-indireta-diz-juiza/

Recusa a voltar ao trabalho anula pedido de rescisão indireta, diz juíza

IA e deep fakes nas eleições: desafio da tecnologia à integridade eleitoral (parte 1)

DIREITO ELEITORAL

Introdução

A emergência das tecnologias de inteligência artificial (IA) trouxe à tona não apenas inovações transformadoras em campos como medicina e educação, mas também desafios éticos e legais complexos.

Um desses desafios é o desenvolvimento e a disseminação de deepfakes, conteúdos altamente realistas criados por IA que podem distorcer a realidade, imitando indivíduos reais em ações ou declarações que nunca ocorreram.

Esta capacidade tem um potencial especialmente perturbador quando aplicada ao contexto político e eleitoral, onde a verdade e a confiança são pilares fundamentais.

Diante desse cenário, o Tribunal Superior Eleitoral (TSE) adotou medidas regulatórias visando proteger o processo democrático dessas ameaças digitais.

Por meio da Resolução 23.610/2019, e sua subsequente alteração pela Resolução 23732/2024, o TSE estabeleceu normas específicas para o uso de IA na criação e propagação de conteúdo durante as eleições.

Essas regulamentações buscam assegurar a integridade da propaganda eleitoral, limitando o uso de tecnologias que possam deturpar a informação entregue aos eleitores.

Essa legislação inovadora proíbe explicitamente a utilização de IA para gerar ou espalhar informações falsas, como deepfakes, que tenham o potencial de influenciar indevidamente os eleitores ou denegrir candidatos.

Adicionalmente, introduz uma obrigação de transparência para qualquer conteúdo gerado por IA que seja utilizado de maneira legítima na propaganda eleitoral, exigindo que tal conteúdo seja claramente marcado como produzido por IA. Esta medida visa garantir que os eleitores possam identificar e compreender a natureza do conteúdo com o qual interagem, promovendo uma escolha informada e consciente.

Com a adoção dessas diretrizes, o TSE demonstra um compromisso significativo com a luta contra a desinformação e a salvaguarda da integridade das eleições.

O Brasil se posiciona, assim, como um líder na busca por soluções para os desafios impostos pela rápida evolução das tecnologias digitais, enfatizando a necessidade de regulamentação cuidadosa para evitar que o avanço tecnológico prejudique a confiança pública nas instituições democráticas.

Contudo, quão eficaz e producentes seriam tais medidas? O que são deepfakes, afinal?

Breve histórico do aprendizado de máquina e o surgimento dos deepfakes

No cerne das reflexões sobre Direito Eleitoral e o impacto revolucionário dos deepfakes, encontramos uma trajetória tecnológica marcada por inovações e questionamentos éticos profundos. A jornada da inteligência artificial, desde os seus conceitos teóricos iniciais até a materialização em aplicações práticas, ilustra a complexa interação entre o avanço tecnológico e suas implicações na sociedade.

O artigo pioneiro de Alan Turing, “Computing Machinery and Intelligence“, publicado em 1950, desafiou as fronteiras do conhecimento ao questionar: “As máquinas podem pensar?”

Turing propôs o que agora é conhecido como o Teste de Turing, um critério para avaliar a capacidade de uma máquina em exibir comportamentos indistinguíveis dos de um ser humano. Essa ideia não apenas lançou as bases conceituais para a inteligência artificial, mas também iniciou um diálogo contínuo sobre as potencialidades e limites da máquina em replicar aspectos da inteligência humana.

Turing propôs a ideia de que, se uma máquina pudesse aprender e adaptar-se por meio de experiências, ela poderia, em teoria, exibir comportamentos indistinguíveis dos humanos. Inspirados por essa visão, pesquisadores começaram a explorar modelos computacionais que poderiam simular o processo de aprendizagem do cérebro humano, levando ao desenvolvimento das redes neurais.

Essas redes são compostas por camadas de neurônios artificiais, projetadas para processar informações de maneira análoga ao cérebro humano, aprendendo a reconhecer padrões complexos a partir de grandes conjuntos de dados.

Assim, as ideias pioneiras de Turing não apenas desbravaram novos caminhos para a computação, mas também forneceram o impulso intelectual necessário para a criação das redes neurais, um componente essencial na evolução da inteligência artificial moderna.

Nos anos seguintes, houve um rápido progresso, incluindo a criação do primeiro programa capaz de aprender a jogar damas e o desenvolvimento do Perceptron, um dos primeiros modelos de redes neurais, por Frank Rosenblatt em 1957. Estes avanços iniciais revelaram o potencial das máquinas para realizar tarefas que exigiam capacidades cognitivas humanas, alimentando a imaginação de cientistas e do público em geral.

Contudo, a IA enfrentou períodos de inverno, durante os quais o entusiasmo inicial deu lugar ao ceticismo devido a limitações técnicas e desafios inesperados. O primeiro desses períodos ocorreu no final dos anos 1970, seguido por outro na década de 1980, quando as expectativas exageradas não se materializaram, resultando em uma redução significativa no financiamento e interesse pela área.

Apesar desses desafios, a pesquisa persistiu e, nos anos 90, a IA começou a experimentar um renascimento, impulsionado pelo aumento da capacidade computacional e pelo desenvolvimento de algoritmos mais sofisticados. Foi nesse período que as redes neurais, após anos de estagnação, começaram a receber nova atenção.

A entrada no século 21 marcou o início de uma era de ouro para a IA, especialmente com o advento dos “big data” e avanços significativos em algoritmos de aprendizado profundo. Geoffrey Hinton, frequentemente referido como o “padrinho do deep learning“, junto a seus colegas, revolucionou o entendimento e a aplicação das redes neurais esses sistemas são compostos por camadas de neurônios artificiais que processam informações recebidas, ajustando seus parâmetros internos — um processo conhecido como “treinamento” — para melhor reconhecer padrões e realizar tarefas específicas.

Os avanços significativos nos chips e nos hardwares modernos desempenharam um papel crucial na facilitação do trabalho pioneiro de Geoffrey Hinton em inteligência artificial (IA) e, em particular, no desenvolvimento do deep learning.

A evolução do hardware, especialmente a introdução e o aperfeiçoamento de unidades de processamento gráfico (GPUs), foi fundamental para superar os desafios computacionais associados ao treinamento de redes neurais profundas.

As GPUs, originalmente projetadas para acelerar gráficos em jogos de computador, provaram ser excepcionalmente eficazes na execução dos cálculos paralelos necessários para o aprendizado profundo. Elas podem processar muitas operações em paralelo, acelerando significativamente a velocidade de treinamento das redes neurais.

Esta capacidade permitiu a Hinton e outros pesquisadores experimentar e iterar modelos de IA mais complexos e em maior escala do que nunca, contribuindo diretamente para os avanços no campo do reconhecimento de voz e imagem, e eventualmente, na criação de tecnologias como os deepfakes.

Geoffrey Hinton possui um currículo impressionante que reflete sua contribuição seminal à IA. Ele é um psicólogo cognitivo britânico-canadense e cientista da computação, mais conhecido por seu trabalho em redes neurais artificiais.

Hinton completou seu PhD em Inteligência Artificial na Universidade de Edimburgo em 1978, onde suas pesquisas já indicavam um profundo interesse nos mecanismos de aprendizado do cérebro humano e sua aplicação em máquinas.

Ao longo de sua carreira, Hinton trabalhou em várias instituições acadêmicas de renome, incluindo a Universidade Carnegie Mellon e a Universidade de Toronto. Ele é frequentemente citado como um dos pioneiros do deep learning, graças às suas inovações fundamentais, como o algoritmo de propagação reversa para treinar redes neurais e a introdução da técnica de dropout para evitar o sobreajuste em redes neurais profundas.

Em reconhecimento às suas contribuições, Hinton recebeu vários prêmios prestigiosos, incluindo o Prêmio Turing em 2018, muitas vezes referido como o “Nobel da Computação”, que compartilhou com Yann LeCun e Yoshua Bengio pelo seu trabalho em deep learning. Atualmente, ele divide seu tempo entre a Universidade de Toronto e o Google Brain, continuando sua pesquisa em IA e orientando a próxima geração de cientistas.

Enfim, o que é um deepfake?

Essas redes neurais, especialmente as convolucionais, desempenham um papel crucial em diversas tecnologias de reconhecimento, como o reconhecimento facial e a detecção de voz.

Essas redes são projetadas para processar dados em forma de matriz e vetores binários, tornando-as excepcionalmente boas na análise de imagens.

Ao serem treinadas com vastos conjuntos de dados de imagens, elas aprendem a identificar e distinguir características faciais complexas, imputando uma matemática da vida invisível aos olhos humanos, permitindo que sistemas de segurança e aplicativos móveis utilizem reconhecimento facial com alta precisão.

Similarmente, no campo do processamento de linguagem natural, as redes neurais transformaram a capacidade dos sistemas em compreender e gerar linguagem humana, facilitando interfaces de conversação natural em assistentes virtuais e aplicativos de tradução.

Neste cenário de avanços contínuos, surge o fenômeno dos deepfakes, uma aplicação direta e potencialmente perturbadora do deep learning. Utilizando técnicas avançadas de modelagem e geração de imagens, os deepfakes são capazes de criar vídeos e áudios altamente convincentes, onde pessoas parecem dizer ou fazer coisas que nunca de fato aconteceram.

Essa capacidade de manipular a realidade audiovisual levanta questões significativas sobre a autenticidade e a veracidade das informações, especialmente em contextos sensíveis como o político e o eleitoral, onde a difusão de informações falsas pode ter consequências profundas na integridade do processo democrático, especialmente no contexto atual onde a apresentação de candidaturas e propostas se concentra primordialmente na internet e nas redes sociais, locais de excelência para a sua avassaladora, e praticamente incontrolável, disseminação.

A partir das fundações teóricas estabelecidas por Turing até as inovações contemporâneas em redes neurais e deep learning, a trajetória da inteligência artificial reflete um paradoxo fascinante: a capacidade de criar máquinas que imitam a inteligência humana também nos obriga a confrontar os desafios éticos e sociais emergentes desta imitação.

Os deepfakes, como expressão máxima desta capacidade, servem como um lembrete pungente da necessidade de equilibrar inovação tecnológica com responsabilidade ética e legal, especialmente no contexto do direito eleitoral e da salvaguarda da democracia.

Neste cenário, a indagação que se coloca é: o TSE e a Justiça Eleitoral de uma forma geral conseguiriam combater, na perspectiva não só regulatória, mas sobretudo repressiva-jurisdicional, uma desinformação cada vez mais virtuosa e, digamos, quase-humana?

Como funciona uma deepfake imagética na prática

Dentro do escopo de nosso artigo sobre Direito Eleitoral e a influência dos deepfakes, é imperativo detalhar com precisão técnica como as redes neurais, particularmente as Convolutional Neural Networks (CNNs), processam e manipulam imagens para criar composições fotorrealísticas. Este processo complexo ilustra a capacidade de identificar, interpretar e reconstruir padrões faciais, fundamentando o desenvolvimento de deepfakes.

Ao receber uma imagem contendo um rosto para análise, a rede neural inicia o processo de desmonte dessa imagem em componentes mais básicos. Primeiramente, a imagem é transformada em uma matriz numérica, onde cada elemento da matriz representa um pixel da imagem original.

Essa representação matricial permite que a rede processe visualmente a imagem de maneira similar a como os seres humanos percebem características visuais, embora em um formato estritamente quantitativo.

A rede então procede para a aplicação de filtros convolucionais. Estes filtros, matematicamente representados por matrizes menores, são deslizados (ou “convolvidos”) sobre a matriz da imagem, analisando pequenas porções de pixels de cada vez. Esse processo extrai características essenciais da imagem, como bordas, texturas e padrões.

Em termos práticos, cada filtro é especializado na detecção de um tipo específico de característica visual, transformando a complexidade de um rosto humano em um conjunto de características básicas identificáveis.

À medida que a imagem avança através das camadas da rede neural, cada nova camada constrói uma representação mais abstrata e complexa das informações capturadas pela camada anterior.

Isso é feito através da combinação dos padrões detectados pelos filtros convolucionais em uma hierarquia de características, de simples a complexas, culminando na construção de um vetor de características de alto nível que encapsula a essência do rosto analisado.

Quando o objetivo é inserir este rosto em uma nova imagem, a rede utiliza este vetor de características para gerar uma representação digital do rosto que pode ser adaptada e sobreposta à nova cena. Ajustes são meticulosamente realizados para alinhar as características geométricas e fotométricas (como iluminação, perspectiva e tonalidade) do rosto com as da imagem destino, garantindo uma fusão visualmente coerente.

Este ajuste fino é crítico, pois assegura que o rosto inserido respeite as condições ambientais e de iluminação da imagem receptora, mantendo a uniformidade e a naturalidade da composição final.

A complexidade desse processo reflete não apenas o poder do aprendizado de máquina e do processamento de imagens, mas também os desafios éticos e legais emergentes em sua aplicação, especialmente em contextos eleitorais.

As técnicas descritas servem de fundamento para a criação de deepfakes, evidenciando a importância e a urgência de abordagens regulatórias e tecnológicas robustas para mitigar os riscos associados à manipulação de imagens e à disseminação de desinformação.

E daí vem a questão: regulamentar é preciso, viver não é preciso.

A tentativa de se regulamentar a IA no Brasil e na União Europeia

O recente acordo sobre o AI Act da União Europeia representa um marco significativo na regulamentação global da inteligência artificial (IA), estabelecendo um precedente para o equilíbrio entre inovação tecnológica e proteção dos direitos fundamentais.

Este acordo, alcançado após intensas negociações entre o Conselho e o Parlamento Europeu, reflete o compromisso da Europa com a liderança ética no desenvolvimento da IA, conforme destacado por Carme Artigas, secretária de Estado para Digitalização e Inteligência Artificial da Espanha. Ela enfatiza que o acordo aborda eficazmente os desafios globais em um ambiente tecnológico em rápida evolução, crucial para o futuro das sociedades e economias.

O AI Act é uma legislação emblemática que visa promover o desenvolvimento e a adoção de IA segura e confiável em todo o mercado único da UE, tanto por entidades públicas quanto privadas. A iniciativa cria um sistema de governança dentro da própria União Europeia, concedendo autonomia aos seus 27 Estados-membros para regulamentar o uso da IA, delimitando as competências europeias e permitindo regulamentações nacionais adicionais se desejado.

A essência do AI Act reside em sua abordagem baseada em riscos para a regulamentação da IA, categorizando os sistemas de IA de acordo com o potencial de causar danos à sociedade.

Sistemas com riscos mínimos ou inexistentes podem operar livremente, enquanto aqueles com riscos limitados estão sujeitos a obrigações de transparência leves. Sistemas de alto risco, por outro lado, serão permitidos no mercado da UE, mas com requisitos e obrigações rigorosos para garantir a segurança e a conformidade.

Em contraste, sistemas que apresentam riscos inaceitáveis, como manipulação cognitiva ou reconhecimento de emoções em locais de trabalho e escolas, serão proibidos, com exceções limitadas.

O acordo introduz novos elementos em comparação com a proposta inicial da Comissão Europeia, incluindo regras sobre modelos de IA de uso geral de alto impacto e um sistema revisado de governança com alguns poderes de aplicação em nível da UE.

Além disso, expande a lista de proibições, mas permite o uso de identificação biométrica remota pelas autoridades policiais em espaços públicos, sujeita a salvaguardas rigorosas.

Um aspecto notável do AI Act é a ênfase na proteção dos direitos fundamentais, exigindo que os implantadores de sistemas de IA de alto risco realizem uma avaliação do impacto sobre os direitos fundamentais antes de colocar um sistema de IA em uso.

Isso reflete uma preocupação crescente com a ética e a responsabilidade no desenvolvimento da IA, garantindo que a tecnologia sirva ao bem comum sem comprometer a dignidade humana ou a liberdade individual.

O AI Act também promove a inovação ao estabelecer sandboxes regulatórios de IA, que fornecem um ambiente controlado para o desenvolvimento, teste e validação de sistemas inovadores de IA.

Essa medida visa criar uma estrutura jurídica favorável à inovação, permitindo que os desenvolvedores testem novas tecnologias em condições reais, sob supervisão regulatória.

À sua vez, o projeto de lei brasileiro sobre a regulamentação da inteligência artificial (IA), discutido em audiência pública na Comissão Temporária sobre Inteligência Artificial no Brasil (CTIA), destaca a necessidade de cautela no uso de dados pessoais.

Este projeto, de autoria do senador Rodrigo Pacheco, presidente do Senado, sob o número PL 2.338/2023, é derivado de um anteprojeto apresentado por uma comissão de juristas e visa estabelecer um marco regulatório para o uso da IA no país.

Um dos principais pontos de discussão é a intersecção da nova legislação com a Lei Geral de Proteção de Dados (LGPD), Lei nº 13.709, de 2018, que regula o tratamento de dados pessoais. A preocupação é que a regulamentação da IA não entre em conflito com a LGPD, mas que ambas possam coexistir harmoniosamente, garantindo a proteção dos dados pessoais dos cidadãos brasileiros.

Durante a audiência, especialistas e parlamentares enfatizaram a importância de equilibrar a inovação tecnológica com a proteção de direitos fundamentais. Lucas Borges de Carvalho, da Autoridade Nacional de Proteção de Dados (ANPD), destacou a conexão intrínseca entre a proteção de dados pessoais e a IA, especialmente em aplicações consideradas de alto risco.

A IA, ao processar grandes volumes de dados, incluindo dados pessoais, para o treinamento de algoritmos, pode gerar impactos significativos, especialmente em casos controversos que envolvem riscos elevados.

O senador Eduardo Gomes, relator da comissão, ressaltou a importância do debate para a construção de um texto legislativo que reflita as necessidades e realidades do Brasil, garantindo que a legislação seja construída com base em sugestões e contribuições de diversos setores da sociedade.

Além da proteção de dados, a audiência abordou a necessidade de uma regulamentação que promova a inovação e o desenvolvimento tecnológico, sem impor restrições excessivas que possam inibir o avanço da IA no país.

A discussão também tocou em temas como a importância da IA na saúde, exemplificada pelo uso da tecnologia no tratamento e prevenção de complicações do diabetes, mostrando o potencial da IA para melhorar a qualidade de vida dos cidadãos.

Dito tudo isso, cumpre, por fim, analisar como o Direito Eleitoral lidará com tudo isso, especialmente no contexto das vindouras eleições municipais de 2024, o que será tratado em artigo seguinte (parte 2).

______________

Referências bibliográficas

  1. Churchland, P. M. (1950). “Eliminative materialism and the propositional attitudes.” Mind, LIX(236), 433-453. Recuperado de https://academic.oup.com/mind/article/LIX/236/433/986238
  2. MIT Technology Review Brasil. (s.d.). “O pioneiro em inteligência artificial, Geoff Hinton, afirma: ‘O deep learning será capaz de fazer tudo’.” Recuperado de https://mittechreview.com.br/o-pioneiro-em-inteligencia-artificial-ia-geoff-hinton-afirma-o-deep-learning-sera-capaz-de-fazer-tudo/
  3. DataGen. (s.d.). “Convolutional Neural Networks (CNN): Uma visão geral completa.” Recuperado de https://datagen.tech/guides/computer-vision/cnn-convolutional-neural-network/
  4. The Economist. (2019, 7 de agosto). “What is a deepfake?” Recuperado de https://www.economist.com/the-economist-explains/2019/08/07/what-is-a-deepfake
  5. Goulart, E. (2023, 20 de dezembro). “A Lei de Inteligência Artificial da União Europeia.” Conjur. Recuperado de https://www.conjur.com.br/2023-dez-20/a-lei-de-inteligencia-artificial-da-uniao-europeia/
  6. Massachusetts Institute of Technology. (2017, 14 de abril). “Explained: Neural networks.” MIT News. Recuperado de https://news.mit.edu/2017/explained-neural-networks-deep-learning-0414
  7. Casalicchio, C. (2022, 21 de novembro). “Por que as GPUs são essenciais para computação.” Red Hat. Recuperado de https://developers.redhat.com/articles/2022/11/21/why-gpus-are-essential-computing
  • Brave

    é advogado e membro-fundador da Abradep. Mestre em Direito Constitucional pelo IDP (Instituto de Direito Público) do Distrito Federal. Especialista em Direito Administrativo pela Fundação Escola Superior do Ministério Público de Mato Grosso; especialista Direito Constitucional pela Fundação Escola Superior do MP-MT e especialista Direito Eleitoral pela Fundação Escola Superior do MP-MT; especialista em Agronegócio pela Esalq-USP.

  • Brave

    é advogado graduado pela UFMT, especialista em Direito Empresarial Tributário pela Universidade Mackenzie, especialista em Aprendizado de Máquina (Stanford e Deep Learning.AI), cientista de dados credenciado pela IBM, profissional de Transformação Digital pelo MIT com MicroMaster pelo MIT; especialista em Inteligência Artificial pelo programa da Saïd Business School da Universidade de Oxford e pós-graduando em Ciência de Dados pelo Instituto de Computação da UFMT.

    CONJUR

    https://www.conjur.com.br/2024-abr-15/ia-e-deep-fakes-nas-eleicoes-desafio-da-tecnologia-a-integridade-eleitoral-parte-1/

Recusa a voltar ao trabalho anula pedido de rescisão indireta, diz juíza

Alexandre de Moraes vira alvo de lavajatistas, bolsonaristas e nazistas

OS TRAPACEIROS DO BEM

O ministro do Supremo Tribunal Federal Alexandre de Moraes é hoje alvo de uma campanha internacional de neo-heróis. Personagens que jamais se preocuparam com direitos e garantias fundamentais agora são defensores de prerrogativas da cidadania que nunca reconheceram para ninguém.

“Eles andam com passos de curupira”, descreve o constitucionalista Lenio Streck. “Atuam na ambiguidade. São heróis com efeito ex tunc: sempre foram ‘a favor da democracia’, dizem. Mas o que tentam fazer é apagar a cumplicidade com o passado.”

E vai além: “Seu neo-heroísmo só tem efeitos pro futuro (ex nunc). Assim, não erram nunca. Esquecem o adágio latino venire contra factum proprium. Criaram o caos e agora surfam na onda do caos. Mas não nos enganam, pela simples razão de que ninguém pode se beneficiar da própria torpeza. Que é exatamente a tradução de venire contra factum proprium”.

Juntaram-se em uma corrente só lavajatistas, bolsonaristas, nazistas e piratas de alto coturno, em busca de redenção. Cobram do ministro complacência com criminosos para quem clamam por direito de defesa e liberdade de expressão. Os defensores da malsucedida tentativa de golpe em 8 de janeiro querem uma desforra.

Claro que se pode detestar Alexandre de Moraes sem ser lavajatista, bolsonarista ou nazista. Mas a verdade é que a unanimidade dessas tribos quer ver o ministro em outro planeta. Não por razões jurídicas, sociológicas ou lógicas. É por política mesmo.

Os novos ‘constitucionalistas’

A camuflagem consiste em fazer de conta que supostos abusos são praticados por quem os coíbe — não pelos violadores. O truque é conhecido: defender o mal em nome do bem. Jurisconsultos de araque — em geral sociólogos de ocasião, editorialistas, ignorantes de luxo —, que jamais se insurgiram contra transgressões a direitos, renascem em pele de cordeiro.

O discurso da “liberdade de expressão” agora tomou o lugar do pretenso “combate à corrupção”. Foi com essa “liberdade de expressão” que se colocou a população contra o STF. Montou-se uma fábrica de notícias fraudulentas para difamar, caluniar e injuriar os ministros. Essa tática ainda surte efeito. O que está em questão é se com esse valor, que não é absoluto, pode-se coagir, chantagear e emparedar o STF.

Alexandre de Moraes candidatou-se a alvo do lavajatismo raiz quando impediu que procuradores da República, acumpliciados com a ONG de fachada “Transparência Internacional” e o “consultor” em negócios do tipo Joaquim Falcão criassem uma megaempresa para administrar os dinheiros das multas de empresas e empresários alvos da autoapelidada “operação”.

No segundo tempo do jogo, o ministro deu outro passo. Ao tornar-se o comandante das forças que bloquearam a tentativa do bolsonarismo de instalar uma ditadura no país. Não por coincidência, os que hoje atacam Moraes histericamente são os mesmos que se beneficiariam com o golpe de estado que não deu certo.

Como tudo começou

Em junho de 2013, quando não reinavam ainda Covid-19 nem dengue, um vírus se espalhou pelo Brasil. Uma mistura de politização zarolha e voluntarismos estrábicos gerou ilusões de ótica de que existia uma fórmula mágica para consertar o país.

Abstraíram-se os grandes problemas do país. Saneamento básico, ineficiências e disfuncionalidades generalizadas; as graves deficiências no campo da saúde, educação e segurança foram esquecidas. Criou-se a ilusão de que o “combate à corrupção” (que de combate à corrupção nada tinha) resolveria tudo. É 2014. A “lava jato” toma o poder que é entregue em bandeja de prata para o bolsonarismo.

“Operação lava jato”, um esquema oportunista manipulado por pessoas espertas, virou nome de instituição, como Congresso Nacional ou Supremo Tribunal Federal. Com ares de seita fundamentalista, ganhou fiéis em todos os estratos da população.

Poucos observaram que o alicerce do “modelo” foi construído de fantasias. A evidência da falsidade é que tudo deu em nada. Ainda se insiste na falsa explicação do fracasso: a de que a tramoia foi desarmada por pessoas que defendem a “corrupção”. Não foi isso.

A missão: anular o STF

Para blindar a trapaça, com vasto apoio popular, os embusteiros empreenderam uma campanha para emparedar o Supremo Tribunal Federal. Óbvio: para garantir a supremacia das decisões amalucadas dos paladinos da imoralidade nascida em Curitiba, logo exportada para Brasília, Rio de Janeiro e São Paulo.

As famosas delações em que empresários e políticos “confessaram” crimes e corrupção foram forjadas à base de extorsões. Dispensaram-se os necessários elementos de corroboração — as provas que confirmariam a veracidade do que se disse em denúncias e notícias.

Se os jornais e emissoras resolvessem, num momento de honestidade, retificar as notícias erradas divulgadas para desmoralizar os ministros do Supremo, levariam algo como dez anos publicando “Erramos” como penitência.

Cada um acredita no que quiser, claro. Saci Pererê, mula sem cabeça, que a terra é plana ou que vacina faz mal. O lavajatismo industrializou-se. Falsos vilões e falsos heróis dominaram a cena. Empresas foram destroçadas, carreiras, destruídas.

O mal em nome do bem

Enfeitou-se a empreitada com as cores de revoluções gloriosas, como o abolicionismo, as guerras por independência e outros grandes momentos da humanidade.

Na mesma fogueira foram queimados vivos bons e maus políticos e empresários. Justiceiros vigaristas, com ajuda de uma imprensa servil e pouco honesta, lincharam pessoas não pelo que elas fizeram, mas pelo que elas eram.

Quando o esquema foi desmascarado, os linchadores calaram por um tempo. Mas estão voltando a se rearticular. Uns para tentar se redimir dos pecados, outros para voltar ao poder e, entre outros, simplesmente por ignorância mesmo — mas todos contra Alexandre de Moraes, na personificação do STF. Há algum desespero nesse movimento.

O que não mudou foi o ferramental dos falsos paladinos: o uso da mentira para impor uma lógica que não existe. O melhor exemplo foi a pesquisa fraudada de uma ONG de fachada, a “Transparência Internacional”. Algo tão estapafúrdio que parece crível: constatou-se que o Brasil se tornou um país mais corrupto na percepção de não se sabe quem.

A “Transparência” divulgou que o país, na “percepção” de alguém — não se diz quem, quantos, onde, nem como se apurou isso —, caiu dez posições no ranking e agora está em 104º lugar na lista da desonestidade mundial. Sem o mínimo de checagem ou questionamento, a imprensa chancelou a fraude.

O ministro Clark Kent

Essa mesma empresa, a “Transparência”, que não informa quem a financia, nem a que interesses serve, tem sede em Berlim, na Alemanha — considerada por um dos maiores penalistas do mundo, o alemão Thomas Rönnau, o paraíso da lavagem de dinheiro. O mesmo país onde explodiu o grande escândalo da Siemens — duas situações que a entidade suspeita ignorou solenemente.

O argumento mágico do “combate à corrupção” mais uma vez foi usado pelos idealistas de araque para se beneficiar de forma ilegítima, imoral e argentária. A expropriação só não foi adiante graças a um personagem-chave na desmontagem da organização criminosa: o ministro do Supremo Tribunal Federal Alexandre de Moraes — que reagiu ao estado de exceção instalado com as armas da Constituição.

Quando assumiu sua cadeira no Supremo, ainda com a identidade de Clark Kent, não se imaginava que Moraes fosse construir uma biografia tão sólida em tão pouco tempo.

É contra ele que se organiza a campanha que ora se testemunha. Se vão conseguir o que querem, ainda não se sabe. Mas é certo que ceder agora aos lavajatistas, bolsonaristas e nazistas que se travestem de paladinos da Justiça será um retrocesso sem precedentes na história do país.

Encontro histórico fortalece laços entre sindicatos brasileiros e chineses

Encontro histórico fortalece laços entre sindicatos brasileiros e chineses

Esta segunda-feira (15/04), foi marcada um momento único para as relações sindicais internacionais, com o encontro de intercâmbio entre as Centrais Sindicais brasileiras e a ACFTU – All-China Federation of Trade Unions (Federação de Sindicatos de Toda a China), realizado em São Paulo. O Diretor de Relações Internacionais da NCST, Denilson Pestana, junto ao Presidente da NCST, Moacyr Roberto Tesch Auersvald, tiveram a honra de participar desse evento que promoveu o compartilhamento de experiências e o fortalecimento dos laços de cooperação em prol dos trabalhadores.

A troca de conhecimento entre diferentes perspectivas é essencial para enfrentar os desafios globais que impactam os trabalhadores em todo o mundo. Esse encontro não apenas proporcionou aprendizado mútuo, mas também reforçou o compromisso de buscar soluções conjuntas para garantir um futuro mais justo e solidário para todos os trabalhadores.

A NCST do estado do Paraná expressa profundo agradecimento a todos os envolvidos por tornarem esse evento possível. É através de iniciativas como essa que construímos um movimento sindical internacional mais forte e unido, dedicado a defender os interesses dos trabalhadores em escala global. Seguimos firmes nesse compromisso, trabalhando incansavelmente para promover os direitos e a dignidade da classe trabalhadora em todo o mundo.

Recusa a voltar ao trabalho anula pedido de rescisão indireta, diz juíza

Elon Musk x STF: o que está em jogo no debate sobre a regulação da internet no Brasil

A comunicação se tornou central na nossa vida, então vamos discutir o pano de fundo para esse impasse entre o Estado brasileiro e uma plataforma internacional.

Nos últimos dias, repercutiu na mídia o chamado Twitter Files Brasil, que se baseia na declaração do dono do X, ex-Twitter, de que irá desbloquear contas que foram suspensas por determinação do Supremo Tribunal Federal no inquérito dos atentados de 8 de janeiro, e que a plataforma pode deixar o país.

A era digital mudou completamente como nos comunicamos, aprendemos e conduzimos negócios, democratizando o acesso à informação e abrindo portas para inovações. Ela é central na nossa vida. Mas, com grandes poderes, vêm grandes responsabilidades: a desinformação, violações de privacidade e o discurso de ódio são desafios prementes que precisam ser enfrentados.

A agenda política traz o debate da regulação como pauta global. Internacionalmente, a União Europeia sai na frente com leis como o Digital Services Act e o Digital Markets Act, buscando tornar o espaço digital mais seguro e promover um mercado justo e aberto. O DAS inspirou vários pontos do PL 2630, sobre o qual vamos falar a seguir.

Por aqui, o PL 2630, de 2020, conhecido como Lei da Transparência e, anteriormente, como PL das Fake News, e propostas como a do deputado João Maia, materializada no PL 2768, de 2022, que buscam endereçar problemas similares. Eles refletem o esforço global em buscar um equilíbrio entre liberdade e segurança no ambiente digital. O PL 2630 é apenas o carro chefe, mas existem inúmeros outros projetos que tratam desde a proteção da infância até a necessidade de autenticar todas as contas em redes sociais.

E a divergência entre governo e oposição e quais são os pontos mais polêmicos desse debate?

Nesse debate, governo e oposição encontram tantos pontos em comum, como a defesa da privacidade e liberdade de expressão, quanto divergências, especialmente sobre como a regulação deve ser implementada. Enquanto o governo pode enfatizar o papel regulatório do estado para proteger os usuários e garantir equidade, a oposição tende a valorizar a liberdade de mercado e a autorregularão, ressaltando os riscos de censura e limitação da inovação.

E por que regular a internet?

Os principais problemas na internet hoje incluem a disseminação de fake news, discurso de ódio, violações de privacidade e ataques cibernéticos. Esses desafios não apenas afetam a experiência online dos usuários, mas também têm implicações legais, ferindo leis brasileiras relacionadas à difamação, direitos autorais e proteção de dados pessoais.

O Marco Civil da Internet já nos dá uma base para essas discussões, especialmente em relação à responsabilidade dos provedores de conteúdo. O percurso do PL 2630 destaca o intenso debate em torno do tema. O art. 19, que trata da responsabilidade dos provedores de aplicações por danos decorrentes de conteúdo gerado por terceiros,

O Projeto de Lei 2630 propõe medidas para regulamentar a atividade nas redes sociais, indo além da remoção de conteúdo por via judicial. Entre os pontos mais debatidos, estão a proibição de contas falsas que simulam a identidade de pessoas ou entidades, o uso restrito de bots para automação, a limitação do alcance de mensagens amplamente compartilhadas, e a exigência de manter registros de mensagens em massa por três meses. Também se busca maior transparência, exigindo a identificação de usuários que financiam anúncios, e proibindo contas oficiais governamentais de bloquear cidadãos. Além disso, propõe-se a criação de um Conselho de Transparência e Responsabilidade na Internet para fiscalização, a obrigatoriedade de sedes brasileiras para provedores de redes sociais, e a aplicação de sanções às empresas que não cumprirem as novas regras (3).

As críticas ao PL 2630, conhecido como Lei das Fake News, que vem sobretudo da oposição, giram em torno da preocupação com a potencial restrição à liberdade de expressão e o medo de uma intervenção estatal excessiva na internet, o que poderia centralizar o controle e limitar as liberdades digitais. Algo mais além disso?

Há também receios de que a legislação possa desestimular a inovação no setor digital, prejudicando startups e empresas tecnológicas. Questiona-se a eficácia das medidas propostas devido à complexidade da natureza global da internet. Preocupa-se, ainda, com o uso político da lei para suprimir vozes dissidentes.

Em meio às eleições municipais e eventos significativos, como os de 8 de janeiro, qual é a saída? Buscar uma regulação equilibrada feita pelo Estado ou pressionar por uma autorregularão mais rigorosa pelas empresas?

O desafio é encontrar o ponto de equilíbrio entre a liberdade que todos valorizamos e a responsabilidade que a era digital exige. A verdade é que o mundo digital não é mais um ambiente seguro, e tende a piorar.

À medida que nos aproximamos das eleições municipais, a importância de uma legislação bem balanceada se torna ainda mais clara, destacada pelo debate profundo da capacidade do TSE de intervir em conteúdo online e pela autoridade do STF em demandar informações das plataformas, uma necessidade evidenciada após os eventos marcantes de 8 de janeiro.

O princípio da liberdade de expressão é um pilar da Constituição Brasileira, mas cabe lembrar que se distingue da abordagem quase absolutista vista na legislação dos EUA, a Primeira Emenda.

No Brasil, a liberdade de expressão é cuidadosamente ponderada contra outros direitos essenciais, como honra, privacidade e segurança.

Esse equilíbrio mostra que não é tarefa fácil e que, independente da ideologia, a complexidade do tema exige que se dê uma atenção e tempo a este assunto como nunca se deu antes.

Nos últimos dias, veículos de várias partes do mundo repercutiram o embate entre Elon Musk, dono do X (o antigo Twitter), com a Justiça brasileira, em particular com o ministro Alexandre de Moraes, do Supremo Tribunal Federal (STF).

Alguns jornais e sites chegaram a questionar se as últimas publicações do bilionário podem incentivar e acelerar a regulamentação das mídias sociais no Brasil.

O Financial Times, do Reino Unido, por exemplo, repercutiu a manifestação do advogado-geral da União, Jorge Messias. Depois dos últimos posts de Musk, ele classificou como “urgente” a necessidade de regulamentar as plataformas digitais.

Sim, o advogado-geral da União disse: “Não podemos viver numa sociedade em que bilionários domiciliados no exterior têm o controle das redes sociais e se colocam em posição de violar o Estado de Direito, descumprindo ordens judiciais e ameaçando as nossas autoridades”, diz a BBC.


O texto acima expressa a visão de quem o assina, não necessariamente do Congresso em Foco. Se você quer publicar algo sobre o mesmo tema, mas com um diferente ponto de vista, envie sua sugestão de texto para redacao@congressoemfoco.com.br.

AUTORIA

Beth Veloso

BETH VELOSO Doutoranda pela Universidade do Minho, em Portugal, e mestre em Políticas de Comunicações pela University of Westminster, na Inglaterra. É jornalista e atua como consultora legislativa da Câmara, nas áreas de Comunicação, Informática, Telecomunicações e Ciências da Comunicação. Tem especial interesse nos temas de regulação da internet, capitalismo digital e capitalismo de vigilância.

CONGRESSO EM FOCO
Recusa a voltar ao trabalho anula pedido de rescisão indireta, diz juíza

PEC do fim da reeleição ganha relator e começa a avançar no Senado

O senador Marcelo Castro (MDB-PI) foi oficializado como o relator da Proposta de Emenda à Constituição (PEC) do fim da reeleição. Agora, o texto para proibir que presidente, governador e prefeito possa concorrer a um segundo mandato consecutivo deve avançar no Senado. A PEC está na Comissão de Constituição e Justiça (CCJ). Castro foi escolhido como relator  por sua proximidade com o tema eleitoral. O senador é o relator do Código Eleitoral, também em análise na comissão.

Além da proibição da reeleição para cargos do Executivo, a PEC também deverá aumentar os mandatos dos políticos brasileiros. Para a maioria dos cargos, o tempo de mandato passará dos quatro anos atuais para cinco anos. Já para senadores, que já contam com um mandato com o dobro de anos dos demais cargos eletivos, o tempo para ficar no Senado passará de oito anos para dez anos.

De acordo com Castro, o próximo passo é decidir sobre a inclusão na PEC de um tema que tem o apoio da maior parte dos líderes partidários: a coincidência de eleições. Os senadores querem fazer com que as eleições brasileiras aconteçam todas no mesmo ano, sem a divisão atual de eleição municipal em um ano e dois anos depois das eleições gerais, incluindo para presidente.

O problema, no entanto, é qual seria o modelo para unificar os pleitos e como se daria a transição do modelo atual para o novo. Sem uma resposta definitiva, Castro deve fazer uma pesquisa interna com os senadores, apresentando opções para a coincidência e a transição.,

“O objetivo da pesquisa é identificar a preferência entre os senadores e seguir apenas com a opção de maior aderência”, diz o relator em nota.

Depois dessa definição, o texto deve avançar na CCJ. O presidente do Senado, Rodrigo Pacheco (PSD-MG), já disse que vê espaço para a Casa analisar o tema ainda em 2024. Por causa das eleições municipais, a análise dos projetos deve ficar concentrada no primeiro semestre.

PUBLICIDADE

De autoria do senador Jorge Kajuru (PSB-GO), a PEC foi apresentada em 2022. Nos últimos meses a proposta angariou apoio dentro do Senado, principalmente depois de Pacheco colocar o texto como uma de suas prioridades para 2024. No entanto, o presidente Lula já disse a senadores que é contra a medida.

AUTORIA

Gabriella Soares

GABRIELLA SOARES Jornalista formada pela Unesp, com experiência na cobertura de política e economia desde 2019. Já passou pelas áreas de edição e reportagem. Trabalhou no Poder360 e foi trainee da Folha de S.Paulo.

CONGRESSO EM FOCO