NOVA CENTRAL SINDICAL
DE TRABALHADORES
DO ESTADO DO PARANÁ

UNICIDADE
DESENVOLVIMENTO
JUSTIÇA SOCIAL

Gestantes, lactantes e puérperas terão tramitação preferencial na Justiça do Trabalho

Gestantes, lactantes e puérperas terão tramitação preferencial na Justiça do Trabalho

O Conselho Superior da Justiça do Trabalho (CSJT) aprovou, na última sexta-feira (29), a edição de resolução que estabelece tramitação preferencial para processos judiciais que envolvam gestantes, lactantes e puérperas. O normativo foi aprovado durante a 6ª sessão do órgão.

A medida, que vale para a Justiça do Trabalho de primeiro e segundo graus de todo o país, busca garantir acesso à Justiça e prestação jurisdicional em prazo razoável, diante das vulnerabilidades sociais enfrentadas por esse grupo. Com a norma, caberá ao juízo analisar, nos casos concretos, a pertinência da prioridade, considerando o conteúdo da demanda, a saúde da mãe e da criança e outros fatores relevantes.

O Sistema Processo Judicial Eletrônico (PJe) deverá dispor de campo específico para identificação da situação. A anotação poderá ser feita já no ajuizamento da ação ou em qualquer fase do processo, por determinação judicial.

(Nathalia Valente/AJ)

TST JUS

https://www.tst.jus.br/en/-/gestantes-lactantes-e-puerperas-terao-tramitacao-preferencial-na-justica-do-trabalho

Gestantes, lactantes e puérperas terão tramitação preferencial na Justiça do Trabalho

Indústria não terá de recolher INSS sobre aviso-prévio indenizado

A Primeira Turma do Tribunal Superior do Trabalho isentou a Technos da Amazônia Indústria e Comércio S.A. do recolhimento da contribuição previdenciária sobre o aviso-prévio indenizado devido a um vendedor de Belo Horizonte (MG). Segundo a Turma, a parcela tem natureza indenizatória, pois não decorre de trabalho prestado ao empregador ou ao tomador de serviços.

Empresa e empregado homologaram acordo trabalhista

O caso tem início em ação ajuizada pelo vendedor em 2014 com pedido de reconhecimento de vínculo com a Technos e condenação da empresa ao pagamento do aviso-prévio indenizado, entre outras verbas trabalhistas. Em junho de 2018, empresa e empregado homologaram acordo na 20ª Vara do Trabalho de Belo Horizonte para quitação das parcelas.

Para União e TRT, aviso-prévio indenizado integra remuneração

Meses depois, a União, na condição de credora das contribuições previdenciárias, requereu ao Tribunal Regional do Trabalho da 3ª Região (MG) que a Technos fosse intimada para recolher o INSS sobre o aviso-prévio indenizado. Seu argumento era o de que a parcela integra o salário-contribuição.

O TRT acolheu o pedido da União. A decisão se baseou em jurisprudência do próprio TRT no sentido da incidência da contribuição sobre o aviso-prévio indenizado concedido após a publicação do Decreto 6.727/2009, que o suprimiu do rol das parcelas que não integram a base de cálculo do salário de contribuição. Ainda de acordo com o tribunal regional, a CLT estabelece que o período de aviso-prévio, ainda que indenizado, integra o contrato de trabalho para todos os fins.

Parcela não diz respeito a trabalho prestado ou tempo à disposição do empregador

O relator do recurso da Technos, ministro Dezena da Silva, afirmou que a natureza do aviso-prévio, no caso, é estritamente indenizatória, pois não decorre de trabalho prestado ou de tempo à disposição do empregador ou do tomador de serviço.  Por isso, não se insere entre as parcelas que integram o salário de contribuição previsto no artigo 28, inciso I, da Lei 8.212/91 (Lei de Benefícios da Previdência Social).

A decisão foi unânime.

(Ricardo Reis/CF)

Processo: RR-1016-32.2014.5.03.0020

TST JUS

https://www.tst.jus.br/en/-/industria-nao-tera-de-recolher-inss-sobre-aviso-previo-indenizado

Gestantes, lactantes e puérperas terão tramitação preferencial na Justiça do Trabalho

Redução da jornada de trabalho para 36 horas entra em debate na CCJ

A Comissão de Constituição, Justiça e Cidadania (CCJ) do Senado Federal promoverá audiência pública nesta terça-feira (2), a partir das 14h, para discutir a possível diminuição da jornada de trabalho para 36 horas semanais, na escala de trabalho 4×3.

A Proposta de Emenda à Constituição (PEC) 148/2015, de autoria do senador Paulo Paim (PT-RS), propõe a redução do limite semanal de 44 para 36 horas, mantendo teto de oito horas diárias, e estabelece a implementação progressiva dessa alteração. Conforme a PEC, a transição seria realizada de maneira gradual: com a jornada inicialmente limitada a 40 horas e redução de uma hora por ano até atingir 36 horas semanais.

A justificativa central é que a redução da jornada pode impulsionar a criação de novos postos de trabalho, melhorar a qualidade de vida dos trabalhadores e aproximar o Brasil de práticas consolidadas em países europeus. Centrais sindicais defendem a proposta como forma de otimizar a distribuição do tempo de trabalho e mitigar o desemprego. Em contrapartida, representantes de setores empresariais manifestam preocupações, relacionadas à potenciais reflexos negativos nos custos de produção e na competitividade.

O senador Rogério Carvalho (PT-SE) apresentou relatório favorável à proposta. De acordo com a íntegra do texto, os estudos relativos a redução da jornada de trabalho mostram-se positivos tanto do ponto de vista dos empregados, quanto dos empregadores. Para os empregadores, a redução, além de ocasionar maior produtividade, permite alinhar o uso da mão de obra às necessidades de produção da empresa, reduzindo a necessidade de horas extras.

No Brasil, historicamente foi divulgado pelos empregadores que o empregado trabalha pouco, não gosta de “pegar no pesado”, sendo a malandragem uma característica inerente da classe trabalhadora. Na verdade, o que pode-se afirmar é que, essa ideologia procura responsabilizar o próprio trabalhador pelo atraso, a pobreza e a baixa remuneração, uma vez que a produtividade industrial nacional seria inferior a dos países desenvolvidos. Porém, levantamentos estatísticos nos mostram o contrário, mostram que a jornada de trabalho brasileira é uma das maiores se comparada com o resto do mundo, como inicialmente comentado.

Para o debate, a CCJ convidou representantes de nove instituições, incluindo entidades ligadas aos trabalhadores e organizações patronais: Associação Nacional dos Magistrados da Justiça do Trabalho (Anamatra); Departamento Intersindical de Estatística e Estudos Socioeconômicos (Dieese); Associação Brasileira da Advocacia Trabalhista (Abrat); Central Única dos Trabalhadores (CUT); Organização Internacional do Trabalho (OIT); Confederação Nacional da Indústria (CNI); Confederação Nacional do Comércio (CNC); Confederação Nacional dos Trabalhadores no Comércio (CNTC); Força Sindical (FS).

Confira a íntegra da proposta.

CONGRESSO EM FOCO

https://www.congressoemfoco.com.br/noticia/111473/reducao-da-jornada-de-trabalho-para-36-horas-entra-em-debate-na-ccj

Gestantes, lactantes e puérperas terão tramitação preferencial na Justiça do Trabalho

Laudo de fisioterapeuta é válido para comprovar doença ocupacional

A Terceira Turma do Tribunal Superior do Trabalho rejeitou recurso da Newell Brands Brasil Ltda. contra decisão que reconheceu a validade de laudo pericial elaborado por fisioterapeuta para comprovar a doença ocupacional de uma ex-empregada. A decisão segue a jurisprudência consolidada que admite, em casos como esse, a atuação de fisioterapeutas como peritos judiciais, desde que comprovada a qualificação técnica.

Empregada fraturou o pé

A trabalhadora, inspecionadeira de luvas em uma unidade da empresa em Ilhéus (BA), fraturou o pé durante o serviço em 2010, ao pisar no ralo do banheiro feminino tampado com um pedaço de papelão. Ela alegou na reclamação trabalhista que, antes do acidente, já apresentava sintomas de doenças ocupacionais relacionadas à sua função. A rotina de trabalho envolvia a inspeção de cerca de 1.800 pares de luvas por dia, em uma jornada altamente repetitiva e com postura inadequada.

A perícia, conduzida por fisioterapeuta nomeada pela 2ª Vara do Trabalho de Ilhéus, concluiu que as atividades desempenhadas contribuíram diretamente para o surgimento de doenças como a síndrome do túnel do carpo e tendinose no ombro, caracterizando concausa. A perita avaliou que a trabalhadora apresentava 50% de incapacidade para exercer a função que ocupava.

Empresa questionou qualificação da perita

A empresa contestou a nomeação da fisioterapeuta, sustentando que apenas médicos estariam aptos a diagnosticar doenças. Segundo a empresa, embora o fisioterapeuta pudesse analisar fatores ergonômicos e nexo causal, o diagnóstico da doença exigiria laudo médico.

Formação técnica foi comprovada pela Justiça

O juízo de primeiro grau afastou a alegação e reconheceu a validade do laudo, destacando que a fisioterapia é profissão regulamentada e de nível superior, com competência técnica para análises dessa natureza. Com base no laudo e em documentos médicos anexados aos autos, a empresa foi condenada a pagar pensão mensal até os 70 anos da trabalhadora e indenização por danos morais de R$ 363 mil.

O Tribunal Regional do Trabalho da 5ª Região (BA) manteve a sentença, ressaltando que a perita era especialista em fisioterapia do trabalho, membro da Associação Brasileira de Fisioterapia do Trabalho (Abrafit) e tinha formação complementar em métodos reconhecidos, como RPG e Pilates. Para o TRT, o laudo foi completo, com minuciosa análise das provas documentais e ampla fundamentação para embasar a conclusão.
A Corte regional também apontou que não há impedimento legal para que um fisioterapeuta atue como perito judicial em casos de doenças ocupacionais para analisar os fatores de risco, as condições de trabalho e os procedimentos preventivos adotados pelo empregador.

Jurisprudência do TST reconhece atuação de fisioterapeutas

A Newell Brands tentou rediscutir o caso no TST, mas o relator, ministro Alberto Balazeiro, destacou que o laudo tratava de doença do sistema osteomuscular, área de competência direta da fisioterapia. “Considerando que a patologia está inteiramente relacionada à função motora da trabalhadora, o fisioterapeuta é o profissional tecnicamente adequado para essa avaliação”, afirmou.

O ministro também ressaltou que não há exigência legal de que o laudo pericial seja elaborado por médico do trabalho. Segundo jurisprudência pacífica do TST, profissionais devidamente registrados em seus conselhos de classe podem atuar como peritos.

A decisão foi unânime.

(Lourdes Tavares/CF)

Processo: Ag-AIRR-714-85.2014.5.05.0492

TST JUS

https://www.tst.jus.br/en/-/laudo-de-fisioterapeuta-%C3%A9-v%C3%A1lido-para-comprovar-doen%C3%A7a-ocupacional%C2%A0

Gestantes, lactantes e puérperas terão tramitação preferencial na Justiça do Trabalho

Trabalho temporário é uma resposta ágil para cenários de incerteza

Marcelo de Abreu

O trabalho temporário surge como solução estratégica diante da crise global, unindo flexibilidade, redução de custos e continuidade operacional.

A entrada em vigor, no último dia 6/8, de um novo pacote de tarifas imposto pelos Estados Unidos sobre produtos importados, somada à instabilidade no cenário econômico global, reacendeu o alerta sobre os impactos para o setor produtivo e o mercado de trabalho brasileiro. Com a perspectiva de decisões empresariais mais conservadoras, cresce a necessidade de estratégias que conciliem continuidade operacional e controle de custos.

Nesse contexto, o trabalho temporário se apresenta como uma solução eficiente para ajustar estruturas sem comprometer a sustentabilidade financeira das empresas.

Diante das incertezas, muitas organizações já revisam as projeções, desaceleram a produção e adotam uma postura mais cautelosa. Ao mesmo tempo, é preciso manter a capacidade de resposta às demandas que permanecem, mesmo que reduzidas, e preservar o ritmo da operação, ainda que em menor escala.

Além disso, com a retração de mercados tradicionais, empresários passam a explorar novas frentes, seja pela diversificação de portfólio, seja pela busca de canais alternativos. Tudo isso, porém, ocorre em um ambiente marcado pela volatilidade, o que exige maior adaptabilidade e estruturas mais enxutas.

A contratação temporária oferece exatamente esse tipo de flexibilidade. O modelo permite dimensionar a força de trabalho conforme a necessidade real, com agilidade para responder a variações na produção e sem os compromissos permanentes que podem onerar a folha de pagamento. Trata-se de uma ferramenta que permite manter a operação ativa, com menor exposição a riscos e maior capacidade de adaptação.

Esse formato já está consolidado em setores que enfrentam flutuações constantes, como o automotivo. Empresas de grande porte vêm adotando o trabalho temporário para atender oscilações de mercado e preservar a eficiência logística e produtiva sem expandir custos fixos. A modalidade possibilita ajustes rápidos e alinhados à realidade de cada ciclo, reforçando o equilíbrio entre continuidade e prudência na gestão de pessoas.

Além da agilidade, o regime oferece vantagens operacionais e financeiras relevantes. A contratação é conduzida por agências especializadas, que mantêm bancos de talentos atualizados e assumem as etapas de seleção, admissão e gestão contratual. Com isso, a empresa ganha tempo e reduz encargos trabalhistas de longo prazo, já que a responsabilidade pelas obrigações legais recai sobre a intermediadora.

Do ponto de vista jurídico, o trabalho temporário é regulamentado pela lei 6.019/1974, com atualizações pela lei 13.429/17 e pelo decreto 10.060/19, garantindo segurança às partes envolvidas. Os profissionais contratados contam com todos os direitos trabalhistas previstos, como jornada definida, remuneração proporcional, FGTS, INSS, adicional noturno, horas extras e férias e 13º salário proporcionais.

Outro benefício importante é a possibilidade de identificar talentos. O contrato temporário permite à empresa avaliar, na prática, o desempenho e o alinhamento do colaborador com a cultura organizacional antes de uma eventual efetivação, o que torna as contratações mais assertivas e reduz a rotatividade.

Em tempos de incerteza, previsibilidade se torna um recurso escasso. Por isso, o trabalho temporário deve ser compreendido não como uma medida paliativa, mas como parte de uma estratégia estruturada de gestão. Ao incorporar esse modelo ao planejamento de recursos humanos, as empresas ganham capacidade de resposta e se posicionam de forma mais sólida para enfrentar ciclos adversos e aproveitar, com eficiência, os momentos de retomada.

Marcelo de Abreu
Presidente da Employer Recursos Humanos, CEO do Banco Nacional de Empregos, diretor de Desenvolvimento Estratégico da Associação Brasileira de Trabalho Temporário, escritor, palestrante e reconhecido pelo LinkedIn como Top Voice de Liderança.

MIGALHAS
https://www.migalhas.com.br/depeso/439027/trabalho-temporario-e-uma-resposta-agil-para-cenarios-de-incerteza

Gestantes, lactantes e puérperas terão tramitação preferencial na Justiça do Trabalho

Inteligência artificial no trabalho: A ilusão de privacidade como um novo caminho para a justa causa

Barbara Almeida Maia

A presença da inteligência artificial no trabalho expõe a ilusão de privacidade e abre espaço para novos debates sobre a justa causa e os limites da vigilância.

A interação com modelos de linguagem avançados tornou-se uma prática cotidiana para otimização de tarefas profissionais. Ocorre que a popularização de ferramentas de inteligência artificial, como o ChatGPT, no ambiente corporativo trouxe consigo uma perigosa e generalizada ilusão de privacidade.

O que muitos profissionais tratam como um diálogo confidencial, utilizado como um espaço para redigir e-mails, analisar dados ou até mesmo desabafar sobre a rotina de trabalho, é, na verdade, um registro digital permanente, monitorado e, crucialmente, desprovido de qualquer sigilo legal.

Essa desconexão entre a percepção do usuário e a realidade técnica e contratual abre um novo e arriscado precedente para o Direito do Trabalho: a utilização de conversas com IAs generativas como prova robusta para a aplicação da justa causa, um risco confirmado pelo próprio CEO da OpenAI, Sam Altman, que alertou publicamente que tais diálogos podem ser legalmente requisitados em processos judiciais.

A presente exposição busca desmistificar essa percepção, por meio de uma análise dos termos contratuais que regem o serviço, juntamente às declarações públicas que confirmam a ausência de proteção legal para os dados inseridos.

1. Armadilha nos termos de uso: Privacidade contratualmente afastada

A ilusão de privacidade do ChatGPT começa a se desfazer com uma análise simples do contrato de adesão que todo usuário aceita ao utilizar o serviço. Ao criar uma conta e utilizar os serviços do ChatGPT, o usuário adere a um contrato, cujas cláusulas definem a extensão da privacidade, ou a falta dela.

A análise das políticas da OpenAI revela uma estrutura de coleta de dados abrangente, que desfaz qualquer presunção de confidencialidade.

Longe de ser um ambiente confidencial, a plataforma opera sob políticas que, por padrão, garantem à OpenAI o direito de coletar, analisar e armazenar todo o “Conteúdo do Usuário”. Isso inclui cada comando (“prompts”), cada rascunho de texto e cada arquivo, imagem e áudio enviado, vinculando permanentemente essas informações à conta do indivíduo. É dizer, cada pergunta feita, cada parágrafo redigido e cada dado inserido para análise é capturado e associado à conta do usuário.

A finalidade dessa coleta de dados é explícita: treinar e aprimorar os modelos de linguagem, prevenir abusos e garantir a segurança do sistema.

Na prática, isso significa que as conversas podem ser revisadas por funcionários autorizados da empresa, quebrando a premissa fundamental de um diálogo privado. Isto porque, a OpenAI reserva-se o direito de revisar os diálogos para assegurar a segurança, a prevenção de abusos e o treinamento e aprimoramento dos modelos de linguagem.

A confidencialidade, portanto, não é violada – ela simplesmente não existe contratualmente para a maioria dos usuários.

A questão se torna ainda mais crítica no ambiente corporativo.

Enquanto soluções como o ChatGPT Enterprise oferecem maiores garantias de privacidade, uma vez que são regidas por termos comerciais específicos, incluindo o compromisso de não utilizar os dados dos clientes para treinar os modelos da OpenAI, a realidade é que a maioria dos funcionários recorre a contas pessoais (gratuitas ou Pro) para tarefas do dia a dia, e estas operam sob as políticas de coleta de dados mais amplas, conforme estabelecido nos Termos de Uso gerais.

Ao fazerem isso, cria-se uma perigosa vulnerabilidade, uma vez que, sem o conhecimento da empresa, expõem dados potencialmente sensíveis ao monitoramento padrão da OpenAI, transformando a conveniência da ferramenta em um risco latente à segurança da informação.

Desta forma, a empresa acredita que seu uso de IA está protegido por um contrato corporativo, ao passo que seus funcionários podem estar, por conveniência, utilizando contas pessoais e expondo dados sensíveis da organização às políticas de monitoramento padrão.

2. Principal vetor de risco: Ausência de sigilo legal

A percepção teórica sobre a fragilidade da privacidade em interações com a inteligência artificial transcendeu o texto dos termos de uso e ganhou contornos pragmáticos e urgentes com as recentes declarações de Sam Altman, CEO da OpenAI.

Em participação no podcast This Past Weekend W/ Theo Von (episódio #599, disponibilizado em 23 de julho de 2025)1, Altman verbalizou a ausência de qualquer privilégio legal que proteja a confidencialidade das conversas dos usuários.

Altman confirmou que as conversas mantidas com a IA “não são confidenciais” e, mais importante, não possuem qualquer tipo de privilégio legal. Suas palavras representam um alerta inequívoco sobre um hiato regulatório com profundas implicações.

“(…) Another thing I’m afraid of and we had a real problem with this earlier but it can get much worse, it’s just what this is going to mean for user’s mental health? There’s a lot of people that talk to ChatGPT all day long. There’s this sort of new AI companions that people talk to like they were a girlfriend or a boyfriend. And we’re talking earlier about how it’s probably not been good for kids to grow up on a dopamine hit of scrolling. (26:56) (…) I don’t think we know quite the ways in which it’s going to have these negative impacts but I feel for sure it’s gonna have some and I hope we can learn to mitigate it, quickly (27:38) (…) I think we’ll certainly need a legal or a policy frame work for AI. One example that we’ve been thinking about a lot, this is like, maybe not quite what you’re asking, this is like a very human centric version of that question, people talk about the most personal shit in their lives to ChatGPT, you know people use it, young people especially use it as a therapist, a life coach, having this relationship problems, what should I do. And right now if you talk to a therapist or a lawyer or a doctor about those problems, there’s legal privilege for it. There’s doctor-patient confidentiality, there’s legal confidentiality. And we haven’t figured that out yet for when you talk to ChatGPT. So if you go talk to ChatGPT about your most sensitive stuff and then there’s like a lawsuit or whatever, we could be required to produce that and I think that’s very screwed up. I think we should have the same concept of privacy for your conversations with AI that we do have with a therapist. And no one had to think about that a year ago. And now I think it’s this huge issue of how we’re gonna treat the laws about this. (31:03) (…) I think we need this point addressed with some urgency. The policy makers I’ve talked to about it are like “bro I agree, it’s just new and we gotta do it quickly (32:26) (…) I think it makes sense to really want the privacy clarity before you use it a lot, the legal clarity (36:36) (…)

TRADUÇÃO: “”(…) Outra coisa que me preocupa, e já tivemos um problema real com isso antes, mas pode ficar muito pior, é o impacto disso na saúde mental dos usuários. Há muitas pessoas que conversam com o ChatGPT o dia inteiro. Surgiu essa nova categoria de companheiros de IA, com quem as pessoas falam como se fossem namorada ou namorado. E falávamos antes sobre como provavelmente não tem sido bom para as crianças crescerem viciadas em dopamina ao rolar telas sem parar. (26:56) (…) Eu não acho que saibamos exatamente de que maneiras isso terá impactos negativos, mas tenho certeza de que terá alguns, e espero que possamos aprender a mitigá-los rapidamente. (27:38) (…) Acho que certamente vamos precisar de uma estrutura legal ou regulatória para a IA. Um exemplo sobre o qual temos pensado bastante, talvez não seja exatamente o que você perguntou, é uma versão muito centrada no ser humano dessa questão, é que as pessoas falam sobre as coisas mais pessoais de suas vidas com o ChatGPT. Jovens, especialmente, o utilizam como terapeuta, como coach de vida, perguntando sobre problemas de relacionamento, o que devem fazer. E hoje, se você fala com um terapeuta, advogado ou médico sobre esses problemas, existe sigilo legal. Há o sigilo médico-paciente, o sigilo profissional entre advogado e cliente. Mas ainda não definimos isso quando se trata de conversar com o ChatGPT. Então, se você fala com o ChatGPT sobre questões super sensíveis e depois houver, digamos, um processo judicial, poderíamos ser obrigados a fornecer essas conversas. E eu acho isso muito errado. Acho que deveríamos ter o mesmo conceito de privacidade nas conversas com a IA que já existe nas conversas com um terapeuta. E ninguém precisava pensar sobre isso há um ano. Agora, é uma questão enorme de como vamos tratar esse assunto nas leis. (31:03) (…) Acho que precisamos resolver esse ponto com urgência. Os formuladores de políticas públicas com quem conversei disseram algo como: “cara, concordo, é só que isso é novo e precisamos agir rápido”. (32:26) (…) Acho que faz sentido querer clareza sobre privacidade antes de usar muito (o ChatGPT), clareza legal. (36:36) (…)”

Diferentemente da relação com médicos, advogados ou terapeutas, que é protegida por sigilo profissional garantido por lei, a interação com um chatbot não goza de nenhuma proteção similar.

Altman alertou que, na ausência de um arcabouço legal específico, a OpenAI pode ser legalmente compelida a entregar os registros das conversas de um usuário mediante uma ordem judicial.

Essa vulnerabilidade transforma cada diálogo, por mais trivial que pareça, em um potencial documento probatório, passível de ser utilizado em um processo judicial.

Diversas ações judiciais já foram movidas contra empresas de IA, e é fato conhecido que a própria OpenAI já enfrenta disputas judiciais ligadas a essa questão. Tem repercutido um  recente caso nos Estados Unidos da América, em que, mediante uma ordem judicial decorrente de ação do New York Times2, foi determinado que a OpenAI preserve os registros de chats dos usuários, com exceção dos clientes do ChatGPT Enterprise, para possível uso em juízo. A OpenAI recorreu, classificando a exigência como excessiva, temendo criar precedente para futuras intimações judiciais em massa.

Tal cenário evidencia que, na falta de uma estrutura legal específica, as informações compartilhadas com a IA podem ser acessadas por autoridades e usadas em investigações ou processos judiciais. Trata-se de um alerta crítico, mormente se considerarmos a tendência crescente de usuários que tratam o ChatGPT como um “terapeuta digital” ou um confidente para desabafos.

Esse contraste entre a percepção de intimidade e a realidade jurídica de exposição cria um terreno fértil para conflitos trabalhistas. Conforme exposto alhures, o que o usuário entende como um espaço seguro de desabafo ou reflexão, na verdade, pode ser um banco de dados acessível mediante ordem judicial.

A própria dinâmica de interação com a IA transforma sentimentos momentâneos em potenciais documentos probatórios, dotados de força e permanência que superam a efemeridade da fala oral ou da troca informal entre colegas. Isto porque, um empregado que utiliza a plataforma para expressar frustrações sobre o ambiente de trabalho, criticar seus gestores ou discutir problemas com colegas está, na prática, criando um registro detalhado e permanente de suas insatisfações.

Esse “diário digital”, desprovido da proteção legal de uma sessão terapêutica, médica ou jurídica, torna-se um arquivo de evidências que pode ser acessado e utilizado contra ele.

O que se verifica é que a dissonância entre a experiência do usuário, que se sente em um espaço privado, e a realidade jurídica, monitorada e sujeita à requisição judicial, é o principal vetor de risco.

3. A prova digital no ordenamento jurídico brasileiro

A constatação de que os dados do ChatGPT não são confidenciais e podem ser requisitados levanta uma questão subsequente: como essa informação, armazenada em servidores de uma empresa estrangeira, pode ser admitida como prova válida em um processo judicial no Brasil?

A resposta reside em um arcabouço legal robusto e tecnologicamente neutro, que já prevê os mecanismos para a obtenção e validação de provas digitais.

O sistema processual brasileiro é fundamentado no princípio da busca da verdade real e permite ampla flexibilidade na produção de provas. O art. 369 do CPC consagra o princípio da atipicidade dos meios de prova, estipulando que as partes podem empregar “todos os meios legais, bem como os moralmente legítimos, ainda que não especificados neste Código” para comprovar suas alegações.

Tal redação abarca naturalmente as novas formas de evidência que surgem com a evolução tecnológica, como e-mails, mensagens de aplicativos e, por extensão, os registros de conversas com inteligência artificial.

O Marco Civil da Internet (lei 12.965/14) complementa essa base principiológica com ferramentas processuais concretas. A lei define “provedores de aplicações de internet” de forma ampla, categoria na qual a OpenAI se enquadra perfeitamente. Ademais, o art. 22 autoriza que, por meio de ordem judicial, a parte interessada requeira a esses provedores a disponibilização de “registros de acesso a aplicações de internet” para formar o conjunto probatório em processos cíveis ou penais.

Nesta senda, é incontroverso que o ordenamento jurídico brasileiro não apenas permite a prova digital, mas também estabelece o procedimento para sua obtenção junto a terceiros que detêm os dados.

4. LGPD

Se por um lado o Marco Civil da Internet fornece os instrumentos necessários para a requisição judicial de registros digitais, por outro surge a necessidade de compatibilizar essa possibilidade com o regime protetivo da LGPD.

Isto porque, qualquer acesso a informações pessoais, mesmo quando autorizado judicialmente, deve observar os limites impostos pela LGPD, o que gera uma tensão aparente entre a busca da verdade real no processo e a tutela da privacidade do titular dos dados.

À primeira vista, a LGPD – lei 13.709/18) poderia ser interpretada como um obstáculo à obtenção de conversas privadas de um empregado. No entanto, uma análise mais aprofundada revela que a lei, na verdade, legitima esse procedimento quando realizado dentro dos parâmetros legais.

A LGPD foi elaborada para equilibrar o direito à privacidade com outras garantias fundamentais, incluindo o acesso à justiça e o direito à prova. A chave para essa compatibilização está no artigo 7º, inciso VI, que autoriza o tratamento de dados pessoais, mesmo sem o consentimento do titular, quando for necessário para o “exercício regular de direitos em processo judicial, administrativo ou arbitral”.

Neste sentido, um empregador com o intuito de provar uma falta grave cometida por um empregado para instruir sua defesa em uma reclamação trabalhista possui base legal sólida, prevista na própria LGPD, para requerer judicialmente o acesso aos dados pertinentes.

Não se trata de óbice à utilização processual de informações. Em verdade, a LGPD atua como mecanismo de harmonização direitos fundamentais. Enquanto protege o trabalhador contra o monitoramento indiscriminado e abusivo, vedando a realização de tais práticas, confere fundamento jurídico expresso para que o empregador, diante de indícios concretos de infração contratual, possa requerer judicialmente o acesso a dados digitais específicos.

É fato conhecido que o Judiciário, em sua atividade jurisdicional, realiza o tratamento de dados para a produção de provas, em plena conformidade com a lei. Assim, a LGPD resguarda a intimidade do empregado sem obstar o exercício regular de direitos pelo empregador, em consonância com o art. 7º, inciso VI, da referida norma, garantindo, por conseguinte, que a coleta e o uso dos dados ocorram de forma justificada e proporcional.

5. Conexão com o Direito do Trabalho: Implicações contratuais diretas

Ora, se a LGPD disciplina a forma pela qual as informações podem ser tratadas, cabe ao Direito do Trabalho examinar as consequências contratuais concretas decorrentes da ausência de sigilo nas interações com ferramentas de inteligência artificial.

É nesse ponto que a análise deixa de ser meramente abstrata ou principiológica e passa a revelar riscos efetivos à continuidade do vínculo empregatício, sobretudo diante da possibilidade de configuração de hipóteses de justa causa, decorrentes do uso imprudente dessas ferramentas.

A convergência entre a natureza pública das conversas com IA e a admissibilidade de provas digitais no Brasil tem consequências diretas e severas no âmbito das relações de trabalho. Isto porque, as ações realizadas por um empregado dentro do ChatGPT ou de outras IAs generativas, consideradas efêmeras ou privadas, podem, na realidade, ser documentadas e enquadradas como faltas graves, justificando a rescisão do contrato de trabalho pela penalidade máxima: a justa causa.

O art. 482 da CLT – Consolidação das Leis do Trabalho elenca as condutas que, por sua gravidade, rompem a confiança essencial à manutenção do vínculo empregatício. Diversas dessas hipóteses podem ser configuradas e, crucialmente, provadas por meio de registros de conversas com IA.

Em primeiro lugar, chama-se a atenção para a violação de segredo profissional (art. 482, alínea “g”) – talvez uma das aplicações mais “inocentes” e diretas. Nesta hipótese, um funcionário, na busca de otimizar o tempo despendido com o trabalho, insere dados confidenciais, como planilhas financeiras, estratégias comerciais, listas de clientes ou código-fonte proprietário, em uma IA generativa para que seja feita uma análise, resumo ou tradução. Ainda que não seja essa a intenção, o funcionário está, na prática, vazando informações sigilosas para um terceiro (a OpenAI, no caso do ChatGPT).

Cabe aqui ressaltar que os Eg. Tribunais têm validado a justa causa em casos de vazamento de dados, considerando a conduta uma violação da LGPD e uma grave quebra de lealdade, ante a inobservância do dever de confidencialidade das informações fornecidas pela Empresa.

JUSTA CAUSA. DEVER DE SIGILO QUEBRADO. MANUTENÇÃO DA PENALIDADE. Verificada a infração ao dever de confidencialidade das informações disponibilizadas ao empregado em decorrência de sua atividade de trabalho, deve ser mantida a dispensa por justa causa aplicada pela empresa, pois caracterizada a falta grave tipificada na alínea g do art . 482 da CLT. (TRT-3 – AP: 00109784820195030103 MG 0010978-48.2019.5 .03.0103, Relator.: Vitor Salino de Moura Eca, Data de Julgamento: 16/12/2020, 10ª turma, Data de Publicação: 17/12/2020.)

Em 2023, ganhou ampla repercussão o episódio envolvendo um funcionário da Samsung que, ao inserir informações sigilosas da companhia no ChatGPT, ocasionou o vazamento inadvertido de dados estratégicos. A gravidade do incidente resultou na sua demissão imediata e levou a empresa a adotar uma medida drástica: a proibição total do uso de ferramentas de inteligência artificial generativa por seus colaboradores, como forma de prevenir novos riscos de exposição de propriedade intelectual.

Uma outra hipótese de falta grave é a negociação habitual configuradora de ato de concorrência (art. 482, alínea “c”). Nesta situação, o uso de ferramentas de IA para elaborar um plano de negócios destinado a empresa concorrente, ou mesmo para estruturar projeto pessoal que rivalize com as atividades do empregador, valendo-se de informações e conhecimentos obtidos no exercício da função, caracteriza ato de concorrência desleal e atentatória à boa-fé contratual. Assim, o registro da interação com a IA constitui prova documental apta a demonstrar tanto a prática, quanto a intenção concorrencial do empregado.

A terceira hipótese corresponde ao ato lesivo da honra ou da boa fama praticado contra o empregador e superiores hierárquicos (art. 482, alínea “k”). Nessa perspectiva, o empregado que se vale de ferramentas de inteligência artificial para redigir textos difamatórios, elaborar “desabafos” ofensivos acerca da empresa ou de seus gestores, ou ainda planejar a divulgação de críticas depreciativas, cria uma prova material e irrefutável de sua conduta. Tais registros permitem evidenciar não apenas a prática em si, mas também a intenção deliberada de causar dano à imagem institucional ou pessoal dos superiores.

Seguindo esta linha, os registros de interações com inteligência artificial também podem servir para comprovar a prática de atos de improbidade (art. 482, alínea “a”) e de  incontinência de conduta ou mau procedimento (art. 482, alínea “b”).

A improbidade se manifesta pela desonestidade, como no caso do empregado que usa a IA para elaborar documentos falsos, como atestados ou justificativas fraudulentas, circunstância em que o histórico da conversa revela não apenas a materialidade, mas igualmente a premeditação da fraude.

Já a incontinência de conduta ou o mau procedimento se configuram quando o trabalhador emprega a ferramenta para fins ilícitos, imorais ou em flagrante violação ao código de conduta da empresa durante o expediente, hipótese que igualmente autoriza a aplicação da justa causa.

Em que pese o uso de conversas com IA como prova em processos trabalhistas seja um fenômeno recente, a Justiça do Trabalho possui entendimento consolidado sobre a conduta de empregados em outras plataformas digitais, o que fornece um precedente análogo de grande relevância.

Decisões reiteradas, como as proferidas pelo TRT da 3ª região, têm reconhecido a validade da dispensa por justa causa de trabalhadores que publicaram comentários depreciativos acerca de seus empregadores em redes sociais como Facebook e LinkedIn3. O fundamento principal é que o direito à liberdade de expressão não é absoluto e não serve de escudo para atos que causem dano à honra e à imagem do empregador, violando o dever de lealdade inerente ao contrato de trabalho.

O raciocínio adotado para postagens públicas é plenamente aplicável a textos ofensivos elaborados e armazenados nos servidores do ChatGPT, uma vez que, em ambos os casos, subsistem o mesmo potencial de dano à reputação e a consequente quebra de confiança necessária à continuidade da relação de emprego.

Ademais, a jurisprudência é pacífica ao reconhecer como meio de prova lícito as comunicações digitais, como mensagens e áudios de WhatsApp, quando apresentadas por um dos interlocutores do diálogo, reforçando a admissibilidade de registros semelhantes oriundos de interações com ferramentas de inteligência artificial.

PROVA. LICITUDE. ÁUDIOS ENVIADOS POR WHATSAPP. A utilização de gravação ou registro de conversa por meio telefônico por um dos participantes, ainda que sem o conhecimento do outro, é meio lícito de prova . Esse entendimento, relativo às conversas por telefone, aplica-se igualmente às novas ferramentas de comunicação, tais como as mensagens e áudios enviados por aplicativos como o WhatsApp, de forma que não há vedação ao uso do conteúdo por um dos interlocutores como prova em processo judicial. (TRT-3 – RO: 00101270420195030137 MG 0010127-04.2019.5 .03.0137, Relator.: Cesar Machado, Data de Julgamento: 22/10/2020, 6ª turma, Data de Publicação: 26/10/2020.)

Ainda que, no caso do ChatGPT, a obtenção dos registros dependa de terceiro (o provedor do serviço), a lógica que orienta a admissibilidade das comunicações digitais como meios de prova já se encontra solidamente consolidada na jurisprudência trabalhista. Trata-se do reconhecimento de que tais registros constituem documentos idôneos e aptos a atestar, com elevado grau de fidedignidade, a ocorrência de determinados fatos relevantes ao litígio.

Para ilustrar a tangibilidade desses riscos, pense em três situações hipotéticas: (1) um analista que insere no ChatGPT o conteúdo de um plano estratégico sigiloso, registrando inadvertidamente um vazamento de informações confidenciais, (2) um empregado que, insatisfeito com seu gestor, redige, com auxílio da IA, um texto difamatório, produzindo prova de ato lesivo à honra; (3) ou ainda o vendedor que solicita à ferramenta a criação de um e-mail fraudulento para justificar metas não cumpridas, evidenciando ato de improbidade.

Em todos os casos, o histórico da interação constitui registro digital robusto e potencialmente apto a fundamentar a dispensa por justa causa. A principal diferença entre essas conversas ou um pensamento não expresso é que a interação com a IA cria um registro digital indelével.

A plataforma, nesse contexto, atua como uma testemunha tecnológica de memória perfeita, capaz de documentar, não apenas o resultado final, mas também todo o processo de raciocínio e a intenção do empregado revelada pela sequência de comandos (prompts). Esse elemento confere à prova um grau de fidelidade e força persuasiva muito superiores aos da prova exclusivamente testemunhal, dificultando sobremaneira a defesa do trabalhador.

Não obstante, urge destacar que, para fins de justa causa, a obtenção da prova deve respeitar o requisito da licitude. Desta forma, as provas obtidas de maneira ilícita, mediante violação da privacidade do empregado, sem autorização judicial, são inadmissíveis. É dizer, o empregador não pode acessar a conta pessoal do trabalhador em plataformas de IA e coletar informações sem consentimento. Contudo, havendo um litígio, o empregador poderá solicitar a preservação e exibição de registros de chats relevantes.

6. Análise de riscos e recomendações estratégicas

Diante dos riscos legais e trabalhistas apontados, a inação não se mostra alternativa viável, seja para empresas, seja para empregados.

É imprescindível adotar uma postura de governança proativa e de conscientização contínua, apta a mitigar litígios e assegurar o uso responsável das ferramentas de inteligência artificial generativa.

A responsabilidade primária de estabelecer um ambiente digitalmente seguro recai sobre o empregador. Uma estratégia eficaz, contudo, não se limita à proibição. Deve envolver políticas claras, programas de educação e a adoção de tecnologias adequadas.

Nesse sentido, impõe-se às empresas a elaboração e ampla divulgação de política específica sobre o uso de IA, definindo, de maneira cristalina, condutas permitidas e vedadas, listando ferramentas homologadas e, sobretudo, proibindo a inserção de dados confidenciais, proprietários ou pessoais (de clientes, colegas ou da própria empresa) em plataformas públicas não sancionadas. A ausência de normas objetivas fragiliza a posição da empresa em eventual litígio, especialmente quando determinada conduta tiver sido previamente tolerada.

Há que se ressaltar, porém, que políticas somente são efetivas quando compreendidas e internalizadas. Daí a necessidade de treinamentos periódicos sobre segurança da informação, a LGPD e riscos específicos associados ao uso da IA. A conscientização é a principal ferramenta para prevenir vazamentos acidentais, principalmente quando as informações sensíveis são inseridas no banco de dados das IAs por funcionários.

É igualmente crucial respeitar os limites de monitoramento. Embora o empregador possa fiscalizar recursos corporativos (e-mails e equipamentos fornecidos pela empresa), a vigilância sobre contas pessoais de IA configura área juridicamente complexa e arriscada. A estratégia mais segura e defensável consiste em priorizar a prevenção, mediante políticas claras e treinamentos, e, em caso de suspeita fundamentada, recorrer à via judicial para requerer a preservação e exibição dos registros.

O empregado, por sua vez, deve adotar postura cautelosa e responsável ao interagir com qualquer ferramenta de IA, especialmente no contexto profissional.

É necessário assumir a presunção de publicidade, ou seja, de que toda interação no ChatGPT pode, em tese, ser lida em juízo. Essa mentalidade é a forma mais eficaz de autoproteção. Ademais, jamais se deve inserir informações confidenciais da empresa, dados pessoais de clientes ou colegas, ou segredos comerciais em contas pessoais ou ferramentas abertas de IA.

A conveniência de uma resposta rápida não compensa o risco de uma falta grave – e, consequentemente, perder direitos rescisórios.

Recomenda-se, sempre que possível, utilizar apenas plataformas oficiais e gerenciadas pela própria empresa, regidas por contratos corporativos que assegurem maior nível de privacidade e segurança, tanto para o funcionário, quanto para a organização.

A crescente integração da IA ao ambiente de trabalho indica que sua regulamentação tende a tornar-se pauta central nas negociações coletivas, assim como ocorreu, em outros tempos, com o uso de celulares e e-mails corporativos.

Do mesmo modo que o uso de celulares no ambiente de trabalho deixou de ser mera questão de disciplina individual para tornar-se objeto de discussão coletiva e de regras de bom senso, é previsível que o emprego de ferramentas de inteligência artificial também passe a integrar os Acordos e Convenções Coletivas de Trabalho.

Tais instrumentos deverão disciplinar não apenas quais plataformas podem ser utilizadas, mas também os limites de monitoramento e as consequências disciplinares, de modo a equilibrar inovação e produtividade com a necessária proteção dos direitos dos trabalhadores.

7. Conclusão

A análise desenvolvida evidencia que a suposta privacidade nas interações com modelos de IA generativa, como o ChatGPT, não passa de uma ilusão com reflexos concretos e potencialmente severos no Direito do Trabalho.

A conjugação de três elementos, (1) as políticas de coleta de dados das plataformas de IA generativa, (2) as declarações inequívocas do CEO da OpenAI acerca da ausência de sigilo legal e (3) o sólido arcabouço jurídico brasileiro quanto à admissibilidade da prova digital – revela um caminho direto para que registros de conversas de um empregado com uma IA sejam utilizados como fundamento para a rescisão por justa causa.

A jurisprudência já consolidada sobre a má conduta em redes sociais encontra aplicação imediata no contexto das IAs, de modo que os tribunais tendem a reconhecer tais registros como documentos de alta fidelidade, aptos a demonstrar, tanto a materialidade da conduta,  quanto o elemento volitivo do trabalhador.

O log de uma IA, funciona, portanto, como uma testemunha imparcial e de memória perfeita, tornando extremamente difícil a defesa em hipóteses de violação de segredo, atos lesivos à honra ou práticas de improbidade.

Diante desse cenário, a única postura sustentável é a da governança proativa, educação contínua e transparência. Cabe às empresas definir políticas claras e treinar suas equipes. Igualmente, cabe aos empregados, adotar a presunção de que nenhuma interação com a IA é efetivamente privada.

Ignorar essa nova realidade não constitui mera falha de segurança da informação, mas um risco jurídico iminente, capaz de comprometer carreiras e expor organizações a litígios complexos e dispendiosos.

_______

https://www.youtube.com/watch?v=aYn8VKW6vXA

https://fastcompanybrasil.com/tech/inteligencia-artificial/processo-do-ny-times-contra-openai-pode-frear-as-ambicoes-da-ia-em-2024/

https://portal.trt3.jus.br/internet/conheca-o-trt/comunicacao/noticias-juridicas/mantida-justa-causa-para-trabalhador-que-falou-mal-da-empregadora-em-postagem-no-facebook-da-empresa

Barbara Almeida Maia
Advogada na ASAF – Alex Santana e Fernanda Rocha Sociedade de Advogados, pós-graduada e especialista em Direito de Empresas pela PUC Minas.

MIGALHAS
https://www.migalhas.com.br/depeso/439069/ia-no-trabalho-a-ilusao-de-privacidade-como-caminho-para-justa-causa