NOVA CENTRAL SINDICAL
DE TRABALHADORES
DO ESTADO DO PARANÁ

UNICIDADE
DESENVOLVIMENTO
JUSTIÇA SOCIAL

Trabalho temporário é uma resposta ágil para cenários de incerteza

Trabalho temporário é uma resposta ágil para cenários de incerteza

Marcelo de Abreu

O trabalho temporário surge como solução estratégica diante da crise global, unindo flexibilidade, redução de custos e continuidade operacional.

A entrada em vigor, no último dia 6/8, de um novo pacote de tarifas imposto pelos Estados Unidos sobre produtos importados, somada à instabilidade no cenário econômico global, reacendeu o alerta sobre os impactos para o setor produtivo e o mercado de trabalho brasileiro. Com a perspectiva de decisões empresariais mais conservadoras, cresce a necessidade de estratégias que conciliem continuidade operacional e controle de custos.

Nesse contexto, o trabalho temporário se apresenta como uma solução eficiente para ajustar estruturas sem comprometer a sustentabilidade financeira das empresas.

Diante das incertezas, muitas organizações já revisam as projeções, desaceleram a produção e adotam uma postura mais cautelosa. Ao mesmo tempo, é preciso manter a capacidade de resposta às demandas que permanecem, mesmo que reduzidas, e preservar o ritmo da operação, ainda que em menor escala.

Além disso, com a retração de mercados tradicionais, empresários passam a explorar novas frentes, seja pela diversificação de portfólio, seja pela busca de canais alternativos. Tudo isso, porém, ocorre em um ambiente marcado pela volatilidade, o que exige maior adaptabilidade e estruturas mais enxutas.

A contratação temporária oferece exatamente esse tipo de flexibilidade. O modelo permite dimensionar a força de trabalho conforme a necessidade real, com agilidade para responder a variações na produção e sem os compromissos permanentes que podem onerar a folha de pagamento. Trata-se de uma ferramenta que permite manter a operação ativa, com menor exposição a riscos e maior capacidade de adaptação.

Esse formato já está consolidado em setores que enfrentam flutuações constantes, como o automotivo. Empresas de grande porte vêm adotando o trabalho temporário para atender oscilações de mercado e preservar a eficiência logística e produtiva sem expandir custos fixos. A modalidade possibilita ajustes rápidos e alinhados à realidade de cada ciclo, reforçando o equilíbrio entre continuidade e prudência na gestão de pessoas.

Além da agilidade, o regime oferece vantagens operacionais e financeiras relevantes. A contratação é conduzida por agências especializadas, que mantêm bancos de talentos atualizados e assumem as etapas de seleção, admissão e gestão contratual. Com isso, a empresa ganha tempo e reduz encargos trabalhistas de longo prazo, já que a responsabilidade pelas obrigações legais recai sobre a intermediadora.

Do ponto de vista jurídico, o trabalho temporário é regulamentado pela lei 6.019/1974, com atualizações pela lei 13.429/17 e pelo decreto 10.060/19, garantindo segurança às partes envolvidas. Os profissionais contratados contam com todos os direitos trabalhistas previstos, como jornada definida, remuneração proporcional, FGTS, INSS, adicional noturno, horas extras e férias e 13º salário proporcionais.

Outro benefício importante é a possibilidade de identificar talentos. O contrato temporário permite à empresa avaliar, na prática, o desempenho e o alinhamento do colaborador com a cultura organizacional antes de uma eventual efetivação, o que torna as contratações mais assertivas e reduz a rotatividade.

Em tempos de incerteza, previsibilidade se torna um recurso escasso. Por isso, o trabalho temporário deve ser compreendido não como uma medida paliativa, mas como parte de uma estratégia estruturada de gestão. Ao incorporar esse modelo ao planejamento de recursos humanos, as empresas ganham capacidade de resposta e se posicionam de forma mais sólida para enfrentar ciclos adversos e aproveitar, com eficiência, os momentos de retomada.

Marcelo de Abreu
Presidente da Employer Recursos Humanos, CEO do Banco Nacional de Empregos, diretor de Desenvolvimento Estratégico da Associação Brasileira de Trabalho Temporário, escritor, palestrante e reconhecido pelo LinkedIn como Top Voice de Liderança.

MIGALHAS
https://www.migalhas.com.br/depeso/439027/trabalho-temporario-e-uma-resposta-agil-para-cenarios-de-incerteza

Trabalho temporário é uma resposta ágil para cenários de incerteza

Inteligência artificial no trabalho: A ilusão de privacidade como um novo caminho para a justa causa

Barbara Almeida Maia

A presença da inteligência artificial no trabalho expõe a ilusão de privacidade e abre espaço para novos debates sobre a justa causa e os limites da vigilância.

A interação com modelos de linguagem avançados tornou-se uma prática cotidiana para otimização de tarefas profissionais. Ocorre que a popularização de ferramentas de inteligência artificial, como o ChatGPT, no ambiente corporativo trouxe consigo uma perigosa e generalizada ilusão de privacidade.

O que muitos profissionais tratam como um diálogo confidencial, utilizado como um espaço para redigir e-mails, analisar dados ou até mesmo desabafar sobre a rotina de trabalho, é, na verdade, um registro digital permanente, monitorado e, crucialmente, desprovido de qualquer sigilo legal.

Essa desconexão entre a percepção do usuário e a realidade técnica e contratual abre um novo e arriscado precedente para o Direito do Trabalho: a utilização de conversas com IAs generativas como prova robusta para a aplicação da justa causa, um risco confirmado pelo próprio CEO da OpenAI, Sam Altman, que alertou publicamente que tais diálogos podem ser legalmente requisitados em processos judiciais.

A presente exposição busca desmistificar essa percepção, por meio de uma análise dos termos contratuais que regem o serviço, juntamente às declarações públicas que confirmam a ausência de proteção legal para os dados inseridos.

1. Armadilha nos termos de uso: Privacidade contratualmente afastada

A ilusão de privacidade do ChatGPT começa a se desfazer com uma análise simples do contrato de adesão que todo usuário aceita ao utilizar o serviço. Ao criar uma conta e utilizar os serviços do ChatGPT, o usuário adere a um contrato, cujas cláusulas definem a extensão da privacidade, ou a falta dela.

A análise das políticas da OpenAI revela uma estrutura de coleta de dados abrangente, que desfaz qualquer presunção de confidencialidade.

Longe de ser um ambiente confidencial, a plataforma opera sob políticas que, por padrão, garantem à OpenAI o direito de coletar, analisar e armazenar todo o “Conteúdo do Usuário”. Isso inclui cada comando (“prompts”), cada rascunho de texto e cada arquivo, imagem e áudio enviado, vinculando permanentemente essas informações à conta do indivíduo. É dizer, cada pergunta feita, cada parágrafo redigido e cada dado inserido para análise é capturado e associado à conta do usuário.

A finalidade dessa coleta de dados é explícita: treinar e aprimorar os modelos de linguagem, prevenir abusos e garantir a segurança do sistema.

Na prática, isso significa que as conversas podem ser revisadas por funcionários autorizados da empresa, quebrando a premissa fundamental de um diálogo privado. Isto porque, a OpenAI reserva-se o direito de revisar os diálogos para assegurar a segurança, a prevenção de abusos e o treinamento e aprimoramento dos modelos de linguagem.

A confidencialidade, portanto, não é violada – ela simplesmente não existe contratualmente para a maioria dos usuários.

A questão se torna ainda mais crítica no ambiente corporativo.

Enquanto soluções como o ChatGPT Enterprise oferecem maiores garantias de privacidade, uma vez que são regidas por termos comerciais específicos, incluindo o compromisso de não utilizar os dados dos clientes para treinar os modelos da OpenAI, a realidade é que a maioria dos funcionários recorre a contas pessoais (gratuitas ou Pro) para tarefas do dia a dia, e estas operam sob as políticas de coleta de dados mais amplas, conforme estabelecido nos Termos de Uso gerais.

Ao fazerem isso, cria-se uma perigosa vulnerabilidade, uma vez que, sem o conhecimento da empresa, expõem dados potencialmente sensíveis ao monitoramento padrão da OpenAI, transformando a conveniência da ferramenta em um risco latente à segurança da informação.

Desta forma, a empresa acredita que seu uso de IA está protegido por um contrato corporativo, ao passo que seus funcionários podem estar, por conveniência, utilizando contas pessoais e expondo dados sensíveis da organização às políticas de monitoramento padrão.

2. Principal vetor de risco: Ausência de sigilo legal

A percepção teórica sobre a fragilidade da privacidade em interações com a inteligência artificial transcendeu o texto dos termos de uso e ganhou contornos pragmáticos e urgentes com as recentes declarações de Sam Altman, CEO da OpenAI.

Em participação no podcast This Past Weekend W/ Theo Von (episódio #599, disponibilizado em 23 de julho de 2025)1, Altman verbalizou a ausência de qualquer privilégio legal que proteja a confidencialidade das conversas dos usuários.

Altman confirmou que as conversas mantidas com a IA “não são confidenciais” e, mais importante, não possuem qualquer tipo de privilégio legal. Suas palavras representam um alerta inequívoco sobre um hiato regulatório com profundas implicações.

“(…) Another thing I’m afraid of and we had a real problem with this earlier but it can get much worse, it’s just what this is going to mean for user’s mental health? There’s a lot of people that talk to ChatGPT all day long. There’s this sort of new AI companions that people talk to like they were a girlfriend or a boyfriend. And we’re talking earlier about how it’s probably not been good for kids to grow up on a dopamine hit of scrolling. (26:56) (…) I don’t think we know quite the ways in which it’s going to have these negative impacts but I feel for sure it’s gonna have some and I hope we can learn to mitigate it, quickly (27:38) (…) I think we’ll certainly need a legal or a policy frame work for AI. One example that we’ve been thinking about a lot, this is like, maybe not quite what you’re asking, this is like a very human centric version of that question, people talk about the most personal shit in their lives to ChatGPT, you know people use it, young people especially use it as a therapist, a life coach, having this relationship problems, what should I do. And right now if you talk to a therapist or a lawyer or a doctor about those problems, there’s legal privilege for it. There’s doctor-patient confidentiality, there’s legal confidentiality. And we haven’t figured that out yet for when you talk to ChatGPT. So if you go talk to ChatGPT about your most sensitive stuff and then there’s like a lawsuit or whatever, we could be required to produce that and I think that’s very screwed up. I think we should have the same concept of privacy for your conversations with AI that we do have with a therapist. And no one had to think about that a year ago. And now I think it’s this huge issue of how we’re gonna treat the laws about this. (31:03) (…) I think we need this point addressed with some urgency. The policy makers I’ve talked to about it are like “bro I agree, it’s just new and we gotta do it quickly (32:26) (…) I think it makes sense to really want the privacy clarity before you use it a lot, the legal clarity (36:36) (…)

TRADUÇÃO: “”(…) Outra coisa que me preocupa, e já tivemos um problema real com isso antes, mas pode ficar muito pior, é o impacto disso na saúde mental dos usuários. Há muitas pessoas que conversam com o ChatGPT o dia inteiro. Surgiu essa nova categoria de companheiros de IA, com quem as pessoas falam como se fossem namorada ou namorado. E falávamos antes sobre como provavelmente não tem sido bom para as crianças crescerem viciadas em dopamina ao rolar telas sem parar. (26:56) (…) Eu não acho que saibamos exatamente de que maneiras isso terá impactos negativos, mas tenho certeza de que terá alguns, e espero que possamos aprender a mitigá-los rapidamente. (27:38) (…) Acho que certamente vamos precisar de uma estrutura legal ou regulatória para a IA. Um exemplo sobre o qual temos pensado bastante, talvez não seja exatamente o que você perguntou, é uma versão muito centrada no ser humano dessa questão, é que as pessoas falam sobre as coisas mais pessoais de suas vidas com o ChatGPT. Jovens, especialmente, o utilizam como terapeuta, como coach de vida, perguntando sobre problemas de relacionamento, o que devem fazer. E hoje, se você fala com um terapeuta, advogado ou médico sobre esses problemas, existe sigilo legal. Há o sigilo médico-paciente, o sigilo profissional entre advogado e cliente. Mas ainda não definimos isso quando se trata de conversar com o ChatGPT. Então, se você fala com o ChatGPT sobre questões super sensíveis e depois houver, digamos, um processo judicial, poderíamos ser obrigados a fornecer essas conversas. E eu acho isso muito errado. Acho que deveríamos ter o mesmo conceito de privacidade nas conversas com a IA que já existe nas conversas com um terapeuta. E ninguém precisava pensar sobre isso há um ano. Agora, é uma questão enorme de como vamos tratar esse assunto nas leis. (31:03) (…) Acho que precisamos resolver esse ponto com urgência. Os formuladores de políticas públicas com quem conversei disseram algo como: “cara, concordo, é só que isso é novo e precisamos agir rápido”. (32:26) (…) Acho que faz sentido querer clareza sobre privacidade antes de usar muito (o ChatGPT), clareza legal. (36:36) (…)”

Diferentemente da relação com médicos, advogados ou terapeutas, que é protegida por sigilo profissional garantido por lei, a interação com um chatbot não goza de nenhuma proteção similar.

Altman alertou que, na ausência de um arcabouço legal específico, a OpenAI pode ser legalmente compelida a entregar os registros das conversas de um usuário mediante uma ordem judicial.

Essa vulnerabilidade transforma cada diálogo, por mais trivial que pareça, em um potencial documento probatório, passível de ser utilizado em um processo judicial.

Diversas ações judiciais já foram movidas contra empresas de IA, e é fato conhecido que a própria OpenAI já enfrenta disputas judiciais ligadas a essa questão. Tem repercutido um  recente caso nos Estados Unidos da América, em que, mediante uma ordem judicial decorrente de ação do New York Times2, foi determinado que a OpenAI preserve os registros de chats dos usuários, com exceção dos clientes do ChatGPT Enterprise, para possível uso em juízo. A OpenAI recorreu, classificando a exigência como excessiva, temendo criar precedente para futuras intimações judiciais em massa.

Tal cenário evidencia que, na falta de uma estrutura legal específica, as informações compartilhadas com a IA podem ser acessadas por autoridades e usadas em investigações ou processos judiciais. Trata-se de um alerta crítico, mormente se considerarmos a tendência crescente de usuários que tratam o ChatGPT como um “terapeuta digital” ou um confidente para desabafos.

Esse contraste entre a percepção de intimidade e a realidade jurídica de exposição cria um terreno fértil para conflitos trabalhistas. Conforme exposto alhures, o que o usuário entende como um espaço seguro de desabafo ou reflexão, na verdade, pode ser um banco de dados acessível mediante ordem judicial.

A própria dinâmica de interação com a IA transforma sentimentos momentâneos em potenciais documentos probatórios, dotados de força e permanência que superam a efemeridade da fala oral ou da troca informal entre colegas. Isto porque, um empregado que utiliza a plataforma para expressar frustrações sobre o ambiente de trabalho, criticar seus gestores ou discutir problemas com colegas está, na prática, criando um registro detalhado e permanente de suas insatisfações.

Esse “diário digital”, desprovido da proteção legal de uma sessão terapêutica, médica ou jurídica, torna-se um arquivo de evidências que pode ser acessado e utilizado contra ele.

O que se verifica é que a dissonância entre a experiência do usuário, que se sente em um espaço privado, e a realidade jurídica, monitorada e sujeita à requisição judicial, é o principal vetor de risco.

3. A prova digital no ordenamento jurídico brasileiro

A constatação de que os dados do ChatGPT não são confidenciais e podem ser requisitados levanta uma questão subsequente: como essa informação, armazenada em servidores de uma empresa estrangeira, pode ser admitida como prova válida em um processo judicial no Brasil?

A resposta reside em um arcabouço legal robusto e tecnologicamente neutro, que já prevê os mecanismos para a obtenção e validação de provas digitais.

O sistema processual brasileiro é fundamentado no princípio da busca da verdade real e permite ampla flexibilidade na produção de provas. O art. 369 do CPC consagra o princípio da atipicidade dos meios de prova, estipulando que as partes podem empregar “todos os meios legais, bem como os moralmente legítimos, ainda que não especificados neste Código” para comprovar suas alegações.

Tal redação abarca naturalmente as novas formas de evidência que surgem com a evolução tecnológica, como e-mails, mensagens de aplicativos e, por extensão, os registros de conversas com inteligência artificial.

O Marco Civil da Internet (lei 12.965/14) complementa essa base principiológica com ferramentas processuais concretas. A lei define “provedores de aplicações de internet” de forma ampla, categoria na qual a OpenAI se enquadra perfeitamente. Ademais, o art. 22 autoriza que, por meio de ordem judicial, a parte interessada requeira a esses provedores a disponibilização de “registros de acesso a aplicações de internet” para formar o conjunto probatório em processos cíveis ou penais.

Nesta senda, é incontroverso que o ordenamento jurídico brasileiro não apenas permite a prova digital, mas também estabelece o procedimento para sua obtenção junto a terceiros que detêm os dados.

4. LGPD

Se por um lado o Marco Civil da Internet fornece os instrumentos necessários para a requisição judicial de registros digitais, por outro surge a necessidade de compatibilizar essa possibilidade com o regime protetivo da LGPD.

Isto porque, qualquer acesso a informações pessoais, mesmo quando autorizado judicialmente, deve observar os limites impostos pela LGPD, o que gera uma tensão aparente entre a busca da verdade real no processo e a tutela da privacidade do titular dos dados.

À primeira vista, a LGPD – lei 13.709/18) poderia ser interpretada como um obstáculo à obtenção de conversas privadas de um empregado. No entanto, uma análise mais aprofundada revela que a lei, na verdade, legitima esse procedimento quando realizado dentro dos parâmetros legais.

A LGPD foi elaborada para equilibrar o direito à privacidade com outras garantias fundamentais, incluindo o acesso à justiça e o direito à prova. A chave para essa compatibilização está no artigo 7º, inciso VI, que autoriza o tratamento de dados pessoais, mesmo sem o consentimento do titular, quando for necessário para o “exercício regular de direitos em processo judicial, administrativo ou arbitral”.

Neste sentido, um empregador com o intuito de provar uma falta grave cometida por um empregado para instruir sua defesa em uma reclamação trabalhista possui base legal sólida, prevista na própria LGPD, para requerer judicialmente o acesso aos dados pertinentes.

Não se trata de óbice à utilização processual de informações. Em verdade, a LGPD atua como mecanismo de harmonização direitos fundamentais. Enquanto protege o trabalhador contra o monitoramento indiscriminado e abusivo, vedando a realização de tais práticas, confere fundamento jurídico expresso para que o empregador, diante de indícios concretos de infração contratual, possa requerer judicialmente o acesso a dados digitais específicos.

É fato conhecido que o Judiciário, em sua atividade jurisdicional, realiza o tratamento de dados para a produção de provas, em plena conformidade com a lei. Assim, a LGPD resguarda a intimidade do empregado sem obstar o exercício regular de direitos pelo empregador, em consonância com o art. 7º, inciso VI, da referida norma, garantindo, por conseguinte, que a coleta e o uso dos dados ocorram de forma justificada e proporcional.

5. Conexão com o Direito do Trabalho: Implicações contratuais diretas

Ora, se a LGPD disciplina a forma pela qual as informações podem ser tratadas, cabe ao Direito do Trabalho examinar as consequências contratuais concretas decorrentes da ausência de sigilo nas interações com ferramentas de inteligência artificial.

É nesse ponto que a análise deixa de ser meramente abstrata ou principiológica e passa a revelar riscos efetivos à continuidade do vínculo empregatício, sobretudo diante da possibilidade de configuração de hipóteses de justa causa, decorrentes do uso imprudente dessas ferramentas.

A convergência entre a natureza pública das conversas com IA e a admissibilidade de provas digitais no Brasil tem consequências diretas e severas no âmbito das relações de trabalho. Isto porque, as ações realizadas por um empregado dentro do ChatGPT ou de outras IAs generativas, consideradas efêmeras ou privadas, podem, na realidade, ser documentadas e enquadradas como faltas graves, justificando a rescisão do contrato de trabalho pela penalidade máxima: a justa causa.

O art. 482 da CLT – Consolidação das Leis do Trabalho elenca as condutas que, por sua gravidade, rompem a confiança essencial à manutenção do vínculo empregatício. Diversas dessas hipóteses podem ser configuradas e, crucialmente, provadas por meio de registros de conversas com IA.

Em primeiro lugar, chama-se a atenção para a violação de segredo profissional (art. 482, alínea “g”) – talvez uma das aplicações mais “inocentes” e diretas. Nesta hipótese, um funcionário, na busca de otimizar o tempo despendido com o trabalho, insere dados confidenciais, como planilhas financeiras, estratégias comerciais, listas de clientes ou código-fonte proprietário, em uma IA generativa para que seja feita uma análise, resumo ou tradução. Ainda que não seja essa a intenção, o funcionário está, na prática, vazando informações sigilosas para um terceiro (a OpenAI, no caso do ChatGPT).

Cabe aqui ressaltar que os Eg. Tribunais têm validado a justa causa em casos de vazamento de dados, considerando a conduta uma violação da LGPD e uma grave quebra de lealdade, ante a inobservância do dever de confidencialidade das informações fornecidas pela Empresa.

JUSTA CAUSA. DEVER DE SIGILO QUEBRADO. MANUTENÇÃO DA PENALIDADE. Verificada a infração ao dever de confidencialidade das informações disponibilizadas ao empregado em decorrência de sua atividade de trabalho, deve ser mantida a dispensa por justa causa aplicada pela empresa, pois caracterizada a falta grave tipificada na alínea g do art . 482 da CLT. (TRT-3 – AP: 00109784820195030103 MG 0010978-48.2019.5 .03.0103, Relator.: Vitor Salino de Moura Eca, Data de Julgamento: 16/12/2020, 10ª turma, Data de Publicação: 17/12/2020.)

Em 2023, ganhou ampla repercussão o episódio envolvendo um funcionário da Samsung que, ao inserir informações sigilosas da companhia no ChatGPT, ocasionou o vazamento inadvertido de dados estratégicos. A gravidade do incidente resultou na sua demissão imediata e levou a empresa a adotar uma medida drástica: a proibição total do uso de ferramentas de inteligência artificial generativa por seus colaboradores, como forma de prevenir novos riscos de exposição de propriedade intelectual.

Uma outra hipótese de falta grave é a negociação habitual configuradora de ato de concorrência (art. 482, alínea “c”). Nesta situação, o uso de ferramentas de IA para elaborar um plano de negócios destinado a empresa concorrente, ou mesmo para estruturar projeto pessoal que rivalize com as atividades do empregador, valendo-se de informações e conhecimentos obtidos no exercício da função, caracteriza ato de concorrência desleal e atentatória à boa-fé contratual. Assim, o registro da interação com a IA constitui prova documental apta a demonstrar tanto a prática, quanto a intenção concorrencial do empregado.

A terceira hipótese corresponde ao ato lesivo da honra ou da boa fama praticado contra o empregador e superiores hierárquicos (art. 482, alínea “k”). Nessa perspectiva, o empregado que se vale de ferramentas de inteligência artificial para redigir textos difamatórios, elaborar “desabafos” ofensivos acerca da empresa ou de seus gestores, ou ainda planejar a divulgação de críticas depreciativas, cria uma prova material e irrefutável de sua conduta. Tais registros permitem evidenciar não apenas a prática em si, mas também a intenção deliberada de causar dano à imagem institucional ou pessoal dos superiores.

Seguindo esta linha, os registros de interações com inteligência artificial também podem servir para comprovar a prática de atos de improbidade (art. 482, alínea “a”) e de  incontinência de conduta ou mau procedimento (art. 482, alínea “b”).

A improbidade se manifesta pela desonestidade, como no caso do empregado que usa a IA para elaborar documentos falsos, como atestados ou justificativas fraudulentas, circunstância em que o histórico da conversa revela não apenas a materialidade, mas igualmente a premeditação da fraude.

Já a incontinência de conduta ou o mau procedimento se configuram quando o trabalhador emprega a ferramenta para fins ilícitos, imorais ou em flagrante violação ao código de conduta da empresa durante o expediente, hipótese que igualmente autoriza a aplicação da justa causa.

Em que pese o uso de conversas com IA como prova em processos trabalhistas seja um fenômeno recente, a Justiça do Trabalho possui entendimento consolidado sobre a conduta de empregados em outras plataformas digitais, o que fornece um precedente análogo de grande relevância.

Decisões reiteradas, como as proferidas pelo TRT da 3ª região, têm reconhecido a validade da dispensa por justa causa de trabalhadores que publicaram comentários depreciativos acerca de seus empregadores em redes sociais como Facebook e LinkedIn3. O fundamento principal é que o direito à liberdade de expressão não é absoluto e não serve de escudo para atos que causem dano à honra e à imagem do empregador, violando o dever de lealdade inerente ao contrato de trabalho.

O raciocínio adotado para postagens públicas é plenamente aplicável a textos ofensivos elaborados e armazenados nos servidores do ChatGPT, uma vez que, em ambos os casos, subsistem o mesmo potencial de dano à reputação e a consequente quebra de confiança necessária à continuidade da relação de emprego.

Ademais, a jurisprudência é pacífica ao reconhecer como meio de prova lícito as comunicações digitais, como mensagens e áudios de WhatsApp, quando apresentadas por um dos interlocutores do diálogo, reforçando a admissibilidade de registros semelhantes oriundos de interações com ferramentas de inteligência artificial.

PROVA. LICITUDE. ÁUDIOS ENVIADOS POR WHATSAPP. A utilização de gravação ou registro de conversa por meio telefônico por um dos participantes, ainda que sem o conhecimento do outro, é meio lícito de prova . Esse entendimento, relativo às conversas por telefone, aplica-se igualmente às novas ferramentas de comunicação, tais como as mensagens e áudios enviados por aplicativos como o WhatsApp, de forma que não há vedação ao uso do conteúdo por um dos interlocutores como prova em processo judicial. (TRT-3 – RO: 00101270420195030137 MG 0010127-04.2019.5 .03.0137, Relator.: Cesar Machado, Data de Julgamento: 22/10/2020, 6ª turma, Data de Publicação: 26/10/2020.)

Ainda que, no caso do ChatGPT, a obtenção dos registros dependa de terceiro (o provedor do serviço), a lógica que orienta a admissibilidade das comunicações digitais como meios de prova já se encontra solidamente consolidada na jurisprudência trabalhista. Trata-se do reconhecimento de que tais registros constituem documentos idôneos e aptos a atestar, com elevado grau de fidedignidade, a ocorrência de determinados fatos relevantes ao litígio.

Para ilustrar a tangibilidade desses riscos, pense em três situações hipotéticas: (1) um analista que insere no ChatGPT o conteúdo de um plano estratégico sigiloso, registrando inadvertidamente um vazamento de informações confidenciais, (2) um empregado que, insatisfeito com seu gestor, redige, com auxílio da IA, um texto difamatório, produzindo prova de ato lesivo à honra; (3) ou ainda o vendedor que solicita à ferramenta a criação de um e-mail fraudulento para justificar metas não cumpridas, evidenciando ato de improbidade.

Em todos os casos, o histórico da interação constitui registro digital robusto e potencialmente apto a fundamentar a dispensa por justa causa. A principal diferença entre essas conversas ou um pensamento não expresso é que a interação com a IA cria um registro digital indelével.

A plataforma, nesse contexto, atua como uma testemunha tecnológica de memória perfeita, capaz de documentar, não apenas o resultado final, mas também todo o processo de raciocínio e a intenção do empregado revelada pela sequência de comandos (prompts). Esse elemento confere à prova um grau de fidelidade e força persuasiva muito superiores aos da prova exclusivamente testemunhal, dificultando sobremaneira a defesa do trabalhador.

Não obstante, urge destacar que, para fins de justa causa, a obtenção da prova deve respeitar o requisito da licitude. Desta forma, as provas obtidas de maneira ilícita, mediante violação da privacidade do empregado, sem autorização judicial, são inadmissíveis. É dizer, o empregador não pode acessar a conta pessoal do trabalhador em plataformas de IA e coletar informações sem consentimento. Contudo, havendo um litígio, o empregador poderá solicitar a preservação e exibição de registros de chats relevantes.

6. Análise de riscos e recomendações estratégicas

Diante dos riscos legais e trabalhistas apontados, a inação não se mostra alternativa viável, seja para empresas, seja para empregados.

É imprescindível adotar uma postura de governança proativa e de conscientização contínua, apta a mitigar litígios e assegurar o uso responsável das ferramentas de inteligência artificial generativa.

A responsabilidade primária de estabelecer um ambiente digitalmente seguro recai sobre o empregador. Uma estratégia eficaz, contudo, não se limita à proibição. Deve envolver políticas claras, programas de educação e a adoção de tecnologias adequadas.

Nesse sentido, impõe-se às empresas a elaboração e ampla divulgação de política específica sobre o uso de IA, definindo, de maneira cristalina, condutas permitidas e vedadas, listando ferramentas homologadas e, sobretudo, proibindo a inserção de dados confidenciais, proprietários ou pessoais (de clientes, colegas ou da própria empresa) em plataformas públicas não sancionadas. A ausência de normas objetivas fragiliza a posição da empresa em eventual litígio, especialmente quando determinada conduta tiver sido previamente tolerada.

Há que se ressaltar, porém, que políticas somente são efetivas quando compreendidas e internalizadas. Daí a necessidade de treinamentos periódicos sobre segurança da informação, a LGPD e riscos específicos associados ao uso da IA. A conscientização é a principal ferramenta para prevenir vazamentos acidentais, principalmente quando as informações sensíveis são inseridas no banco de dados das IAs por funcionários.

É igualmente crucial respeitar os limites de monitoramento. Embora o empregador possa fiscalizar recursos corporativos (e-mails e equipamentos fornecidos pela empresa), a vigilância sobre contas pessoais de IA configura área juridicamente complexa e arriscada. A estratégia mais segura e defensável consiste em priorizar a prevenção, mediante políticas claras e treinamentos, e, em caso de suspeita fundamentada, recorrer à via judicial para requerer a preservação e exibição dos registros.

O empregado, por sua vez, deve adotar postura cautelosa e responsável ao interagir com qualquer ferramenta de IA, especialmente no contexto profissional.

É necessário assumir a presunção de publicidade, ou seja, de que toda interação no ChatGPT pode, em tese, ser lida em juízo. Essa mentalidade é a forma mais eficaz de autoproteção. Ademais, jamais se deve inserir informações confidenciais da empresa, dados pessoais de clientes ou colegas, ou segredos comerciais em contas pessoais ou ferramentas abertas de IA.

A conveniência de uma resposta rápida não compensa o risco de uma falta grave – e, consequentemente, perder direitos rescisórios.

Recomenda-se, sempre que possível, utilizar apenas plataformas oficiais e gerenciadas pela própria empresa, regidas por contratos corporativos que assegurem maior nível de privacidade e segurança, tanto para o funcionário, quanto para a organização.

A crescente integração da IA ao ambiente de trabalho indica que sua regulamentação tende a tornar-se pauta central nas negociações coletivas, assim como ocorreu, em outros tempos, com o uso de celulares e e-mails corporativos.

Do mesmo modo que o uso de celulares no ambiente de trabalho deixou de ser mera questão de disciplina individual para tornar-se objeto de discussão coletiva e de regras de bom senso, é previsível que o emprego de ferramentas de inteligência artificial também passe a integrar os Acordos e Convenções Coletivas de Trabalho.

Tais instrumentos deverão disciplinar não apenas quais plataformas podem ser utilizadas, mas também os limites de monitoramento e as consequências disciplinares, de modo a equilibrar inovação e produtividade com a necessária proteção dos direitos dos trabalhadores.

7. Conclusão

A análise desenvolvida evidencia que a suposta privacidade nas interações com modelos de IA generativa, como o ChatGPT, não passa de uma ilusão com reflexos concretos e potencialmente severos no Direito do Trabalho.

A conjugação de três elementos, (1) as políticas de coleta de dados das plataformas de IA generativa, (2) as declarações inequívocas do CEO da OpenAI acerca da ausência de sigilo legal e (3) o sólido arcabouço jurídico brasileiro quanto à admissibilidade da prova digital – revela um caminho direto para que registros de conversas de um empregado com uma IA sejam utilizados como fundamento para a rescisão por justa causa.

A jurisprudência já consolidada sobre a má conduta em redes sociais encontra aplicação imediata no contexto das IAs, de modo que os tribunais tendem a reconhecer tais registros como documentos de alta fidelidade, aptos a demonstrar, tanto a materialidade da conduta,  quanto o elemento volitivo do trabalhador.

O log de uma IA, funciona, portanto, como uma testemunha imparcial e de memória perfeita, tornando extremamente difícil a defesa em hipóteses de violação de segredo, atos lesivos à honra ou práticas de improbidade.

Diante desse cenário, a única postura sustentável é a da governança proativa, educação contínua e transparência. Cabe às empresas definir políticas claras e treinar suas equipes. Igualmente, cabe aos empregados, adotar a presunção de que nenhuma interação com a IA é efetivamente privada.

Ignorar essa nova realidade não constitui mera falha de segurança da informação, mas um risco jurídico iminente, capaz de comprometer carreiras e expor organizações a litígios complexos e dispendiosos.

_______

https://www.youtube.com/watch?v=aYn8VKW6vXA

https://fastcompanybrasil.com/tech/inteligencia-artificial/processo-do-ny-times-contra-openai-pode-frear-as-ambicoes-da-ia-em-2024/

https://portal.trt3.jus.br/internet/conheca-o-trt/comunicacao/noticias-juridicas/mantida-justa-causa-para-trabalhador-que-falou-mal-da-empregadora-em-postagem-no-facebook-da-empresa

Barbara Almeida Maia
Advogada na ASAF – Alex Santana e Fernanda Rocha Sociedade de Advogados, pós-graduada e especialista em Direito de Empresas pela PUC Minas.

MIGALHAS
https://www.migalhas.com.br/depeso/439069/ia-no-trabalho-a-ilusao-de-privacidade-como-caminho-para-justa-causa

Trabalho temporário é uma resposta ágil para cenários de incerteza

Técnica de enfermagem que parou ambulância em bar tem justa causa mantida

A decisão considerou a gravidade da conduta e afastou alegações de dupla punição e demora na aplicação da pena.

Da Redação

A 4ª turma do TRT da 3ª região confirmou a decisão que validou a demissão por justa causa de uma técnica de enfermagem. A profissional, em conjunto com sua equipe, interrompeu o serviço de atendimento médico ao desviar a ambulância da empresa para comparecer a um bar onde ocorria uma confraternização de um ex-colega de trabalho.

O desembargador Paulo Chaves Corrêa Filho, relator do caso, rejeitou as alegações de dupla punição e demora na aplicação da penalidade. Adicionalmente, reconheceu que a seriedade da ação praticada pela técnica de enfermagem dispensa a necessidade de uma progressão nas sanções disciplinares. A demissão da empregada foi fundamentada no artigo 482, alínea “b”, da CLT, que versa sobre “incontinência de conduta ou mau procedimento”.

A infração consistiu na parada não autorizada em um estabelecimento comercial, utilizando um veículo de emergência da empresa durante o horário de trabalho, com o propósito de saudar um ex-colega em uma celebração. A técnica de enfermagem atuava na rede pública de saúde, especificamente no setor de urgência e emergência, por meio de um consórcio intermunicipal de saúde do leste de Minas Gerais, prestando serviços nas regiões de Coronel Fabriciano e Ipatinga.

Documentos e vídeos apresentados no processo demonstraram que três ambulâncias chegaram ao local com os dispositivos sonoros e luminosos acionados, de onde os profissionais desembarcaram para participar brevemente da festividade.

Conforme um memorando interno, uma das equipes, incluindo a autora da ação, estava envolvida em uma ocorrência de emergência com um paciente idoso que apresentava dificuldades respiratórias no momento da parada não autorizada. A rota foi alterada para o desvio até a confraternização, sem o conhecimento da central de operações.

Em seu depoimento, a reclamante admitiu não possuir autorização para deixar a base e tampouco ter solicitado um intervalo para refeição, reconhecendo que a parada na “festa” não foi comunicada ou autorizada pela central responsável. “Não é razoável uma ambulância em horário de trabalho parar para atender fins particulares da equipe médica (nem que seja por alguns minutos)”, enfatizou o relator.

O desembargador refutou a tese de dupla punição, esclarecendo que não houve comprovação de advertência verbal ou escrita à empregada. Observou que a mensagem enviada pelo coordenador no grupo da equipe não configura punição, mas solicitação de informações sobre o ocorrido. Também afastou a alegação de demora na aplicação da penalidade, considerando razoável o prazo de 14 dias entre a ocorrência e a aplicação da justa causa, devido à necessidade de apuração dos fatos.

A decisão ressaltou que o ato cometido foi suficientemente grave para quebrar a confiança entre empregada e empregador, impossibilitando a continuidade do vínculo empregatício, tornando desnecessária a gradação de penalidades. Consequentemente, o pedido de reversão da justa causa foi negado, assim como a indenização por danos morais, em virtude da ausência de ato ilícito por parte da empregadora.

O colegiado negou provimento ao recurso da reclamante, mantendo a sentença proferida pela 4ª vara do Trabalho de Coronel Fabriciano.

O número do processo não foi divulgado.

Informações: TRT da 3ª região.

MIGALHAS
https://www.migalhas.com.br/quentes/438996/funcionaria-que-parou-ambulancia-em-bar-tem-justa-causa-mantida

Trabalho temporário é uma resposta ágil para cenários de incerteza

Mesmo fora de serviço, motorista terá rescisão indireta após Brumadinho

Para a 3ª turma do TST, descumprimento de normas de segurança pela Vale configura falta grave patronal, ainda que o trabalhador não estivesse presente no rompimento.

Da Redação

A 3ª turma do TST reconheceu, por unanimidade, o direito de motorista terceirizado à rescisão indireta do contrato de trabalho com a Vale S.A., em razão das condições de risco a que estava submetido na Mina Córrego do Feijão, em Brumadinho/MG, mesmo não estando em serviço no momento do rompimento da barragem, em 2019.

Para o colegiado, o descumprimento das normas de segurança do trabalho pela empresa configura falta grave do empregador, nos termos do art. 483, alínea “c”, da CLT, sendo desnecessária a presença do trabalhador no local da tragédia para caracterizar o direito à rescisão contratual com recebimento das verbas rescisórias devidas.

O caso envolve um motorista que prestava serviços de transporte de funcionários para a Vale S.A. e havia encerrado o turno de trabalho poucas horas antes do rompimento da barragem da mina Córrego do Feijão, em Brumadinho/MG.

Na ação trabalhista, o empregado alegou ter sido profundamente impactado pela tragédia, com dificuldades emocionais, episódios de insônia e ansiedade, sustentando que o retorno às atividades nas proximidades da mina representava sofrimento contínuo. Pleiteou, assim, o reconhecimento da rescisão indireta do contrato, com fundamento no art. 483, alínea “c”, da CLT, que prevê essa modalidade quando o empregado corre “perigo manifesto de mal considerável”.

A empresa, por sua vez, defendeu que o trabalhador não estava presente no momento do rompimento, não era lotado formalmente na Mina do Córrego do Feijão e continuou a prestar serviços normalmente, o que afastaria a caracterização de falta grave patronal.

O pedido foi negado tanto na 1ª instância quanto no TRT da 3ª região, que concluíram não estarem presentes os requisitos para a rescisão indireta. Para os julgadores, o empregado não foi diretamente atingido pelo acidente e, como continuou trabalhando normalmente após o ocorrido, sem afastamento previdenciário, não ficou caracterizada falta grave por parte da empregadora.

Descumprimento de normas de segurança

Ao analisar o recurso no TST, o relator, ministro José Roberto Freire Pimenta, destacou que o reconhecimento da rescisão indireta independe da presença física do empregado no momento do acidente, ressaltando que houve comprovado descumprimento das normas de segurança do trabalho pela Vale S.A., o que expôs os trabalhadores da mina do Córrego do Feijão a risco real e concreto à integridade física.

O fundamento jurídico adotado foi a alínea “c” do art. 483 da CLT, que prevê a rescisão indireta quando o empregado estiver exposto a “perigo manifesto de mal considerável”.

Para o ministro, a exposição ao perigo – e não a presença no instante da tragédia – caracteriza a falta grave do empregador. Ele também afastou a exigência de imediatidade entre o fato gerador da rescisão e o ajuizamento da ação, ressaltando que o trabalhador, em razão de sua hipossuficiência, muitas vezes continua laborando mesmo em condições adversas por depender economicamente do emprego.

“Este Tribunal Superior tem reiteradamente adotado o entendimento de que a imediatidade na prática das graves infrações contratuais pelo empregador não é imprescindível para que se reconheça o direito do empregado de considerar rescindido o contrato de trabalho e pleitear a devida indenização, pois, em virtude de sua hipossuficiência, muitas vezes ele se vê na contingência de suportar situações que lhes são prejudiciais e gravosas para manter o emprego, fonte de sustento para si e seus familiares. Assim, o fato de o reclamante continuar trabalhando, não impede que se reconheça seu direito de considerar rescindido o pacto laboral e postular a devida indenização, em observância aos princípios da continuidade da prestação laboral e da proteção ao hipossuficiente.”

Com base nesses fundamentos, a 3ª turma reconheceu a rescisão indireta e determinou o pagamento das verbas rescisórias correspondentes, a serem apuradas em liquidação de sentença.

Processo: 10040-53.2020.5.03.0027
Leia o acórdão:chrome-extension://efaidnbmnnnibpcajpcglclefindmkaj/https://www.migalhas.com.br/arquivos/2025/9/95BE92038DB4DF_Ag-RRAg-10040-53_2020_5_03_002.pdf

MIGALHAS
https://www.migalhas.com.br/quentes/439042/mesmo-fora-de-servico-motorista-tem-rescisao-indireta-apos-brumadinho

Trabalho temporário é uma resposta ágil para cenários de incerteza

Trabalhador que deu causa desnecessária à perícia deve pagar perito

A 3ª Turma do TRT-3 acolheu o recurso de uma empresa de tintas para atribuir a um ex-empregado o pagamento dos honorários de perícia contábil. Ele deu causa desnecessária à perícia.

O caso trata de execução definitiva da ação trabalhista ajuizada pelo autor contra a loja de tintas onde ele trabalhou. Diante da divergência entre os cálculos apresentados pelas partes, o juízo da 21ª Vara do Trabalho de Belo Horizonte determinou a perícia contábil.

A diferença dos cálculos do perito e da loja foi na apuração de juros e correção, uma vez que o da loja foi feito em agosto de 2024 e o do perito, em outubro.

O trabalhador concordou com os cálculos do perito. A empresa foi responsabilizada a pagar os honorários periciais pelo juízo de primeiro grau, mas recorreu da decisão dizendo que o trabalhador deu causa à execução e descumpriu as obrigações.

Cálculos inaceitáveis

No julgamento do recurso, o relator Milton Vasques Thibau de Almeida deu razão à empresa. Na decisão, o magistrado disse que, segundo a Orientação Jurisprudencial (OJ) nº 19 das Turmas do TRT-3, o fato dos cálculos do perito e das partes não coincidirem não basta, por si só, para decidir quem paga o perito.

Entretanto, a OJ diz que o pagamento dos honorários será do exequente quando ele pedir uma perícia desnecessária, por abuso ou má-fé.

O magistrado explicou que esse abuso ocorre quando o exequente apresenta cálculos inaceitáveis e injustificados, e essa diferença não pode ser atribuída a uma eventual interpretação “mais favorável” da decisão judicial que precisa ser cumprida.

Para o relator, o caso se aplica ao trabalhador em questão, uma vez que a diferença entre os cálculos de liquidação do perito e os da empresa se deu somente na apuração de juros e correção.

O trabalhador não indicou diferença entre o cálculo apresentado pelo perito judicial e pela ex-empregadora para afastar a alegação de má-fé. Ele afirmou que a empresa pretendia alterar os cálculos homologados, quando na verdade ela buscava a aplicação dos cálculos periciais apresentados.

O ex-empregado foi responsabilizado pelo pagamento dos honorários, no valor de R$ 600,00. O valor será pago pela União, já que o trabalhador é beneficiário da justiça gratuita, nos termos da decisão do STF em 2021 (ADI 5.766). Com informações da assessoria de imprensa do TRT-MG.

Processo: 0010319-18.2024.5.03.0021

CONJUR

https://www.conjur.com.br/2025-set-01/trabalhador-que-deu-causa-desnecessaria-a-pericia-deve-pagar-perito/

Trabalho temporário é uma resposta ágil para cenários de incerteza

Multa automática e mais poder ao trabalhador: o que muda nas férias com a nova lei trabalhista

Em 2025, a Consolidação das Leis do Trabalho (CLT) passou por mais uma atualização relevante. Embora os 30 dias de férias remuneradas tenham sido mantidos, a nova legislação trouxe mudanças significativas que alteram a dinâmica entre empregadores e empregados. O objetivo é claro: garantir mais previsibilidade, transparência e equilíbrio nas relações de trabalho.

Outra mudança de grande impacto é a criação da multa automática para os casos em que as férias não são concedidas dentro do prazo legal. Antes, o trabalhador precisava recorrer à Justiça para exigir seus direitos, o que tornava o processo moroso e desgastante. Agora, a penalidade é aplicada de forma imediata, fortalecendo o poder fiscalizador da norma e ampliando a proteção ao empregado.

O fracionamento das férias também foi mantido, mas com regras mais rígidas. O primeiro período deve ter, no mínimo, 14 dias, enquanto os demais precisam ser de ao menos dez dias cada. Não são mais aceitos períodos inferiores a uma semana. Além disso, a empresa precisa justificar formalmente a divisão, e o trabalhador tem o direito de recusar a proposta. Na prática, esse modelo busca preservar o real objetivo das férias: proporcionar descanso adequado e recuperação da saúde física e mental.

Essas alterações também dialogam com outros direitos já consolidados, como o 13º salário integral, o depósito regular do FGTS e o direito à desconexão — este último, essencial para limitar exigências e demandas fora do expediente de trabalho. Trata-se de um movimento de modernização da CLT, alinhando-a a práticas internacionais sem abrir mão da proteção social que caracteriza a legislação brasileira.

Transparência e segurança

Em minha visão, o novo modelo traz um avanço relevante: ao exigir aviso formal, prever multa automática e permitir maior poder de decisão ao trabalhador, cria-se um ambiente mais transparente e juridicamente seguro para ambas as partes. O empregador, ao seguir as regras, ganha clareza e reduz riscos de litígio; o empregado, por sua vez, conquista maior autonomia e a garantia de que seu direito ao descanso será respeitado.

Em um cenário de transformações rápidas no mercado de trabalho, legislações que reforçam o equilíbrio entre produtividade e dignidade laboral não apenas corrigem distorções, mas também constroem relações mais justas e sustentáveis.