Barbara Almeida Maia
A presença da inteligência artificial no trabalho expõe a ilusão de privacidade e abre espaço para novos debates sobre a justa causa e os limites da vigilância.
A interação com modelos de linguagem avançados tornou-se uma prática cotidiana para otimização de tarefas profissionais. Ocorre que a popularização de ferramentas de inteligência artificial, como o ChatGPT, no ambiente corporativo trouxe consigo uma perigosa e generalizada ilusão de privacidade.
O que muitos profissionais tratam como um diálogo confidencial, utilizado como um espaço para redigir e-mails, analisar dados ou até mesmo desabafar sobre a rotina de trabalho, é, na verdade, um registro digital permanente, monitorado e, crucialmente, desprovido de qualquer sigilo legal.
Essa desconexão entre a percepção do usuário e a realidade técnica e contratual abre um novo e arriscado precedente para o Direito do Trabalho: a utilização de conversas com IAs generativas como prova robusta para a aplicação da justa causa, um risco confirmado pelo próprio CEO da OpenAI, Sam Altman, que alertou publicamente que tais diálogos podem ser legalmente requisitados em processos judiciais.
A presente exposição busca desmistificar essa percepção, por meio de uma análise dos termos contratuais que regem o serviço, juntamente às declarações públicas que confirmam a ausência de proteção legal para os dados inseridos.
1. Armadilha nos termos de uso: Privacidade contratualmente afastada
A ilusão de privacidade do ChatGPT começa a se desfazer com uma análise simples do contrato de adesão que todo usuário aceita ao utilizar o serviço. Ao criar uma conta e utilizar os serviços do ChatGPT, o usuário adere a um contrato, cujas cláusulas definem a extensão da privacidade, ou a falta dela.
A análise das políticas da OpenAI revela uma estrutura de coleta de dados abrangente, que desfaz qualquer presunção de confidencialidade.
Longe de ser um ambiente confidencial, a plataforma opera sob políticas que, por padrão, garantem à OpenAI o direito de coletar, analisar e armazenar todo o “Conteúdo do Usuário”. Isso inclui cada comando (“prompts”), cada rascunho de texto e cada arquivo, imagem e áudio enviado, vinculando permanentemente essas informações à conta do indivíduo. É dizer, cada pergunta feita, cada parágrafo redigido e cada dado inserido para análise é capturado e associado à conta do usuário.
A finalidade dessa coleta de dados é explícita: treinar e aprimorar os modelos de linguagem, prevenir abusos e garantir a segurança do sistema.
Na prática, isso significa que as conversas podem ser revisadas por funcionários autorizados da empresa, quebrando a premissa fundamental de um diálogo privado. Isto porque, a OpenAI reserva-se o direito de revisar os diálogos para assegurar a segurança, a prevenção de abusos e o treinamento e aprimoramento dos modelos de linguagem.
A confidencialidade, portanto, não é violada – ela simplesmente não existe contratualmente para a maioria dos usuários.
A questão se torna ainda mais crítica no ambiente corporativo.
Enquanto soluções como o ChatGPT Enterprise oferecem maiores garantias de privacidade, uma vez que são regidas por termos comerciais específicos, incluindo o compromisso de não utilizar os dados dos clientes para treinar os modelos da OpenAI, a realidade é que a maioria dos funcionários recorre a contas pessoais (gratuitas ou Pro) para tarefas do dia a dia, e estas operam sob as políticas de coleta de dados mais amplas, conforme estabelecido nos Termos de Uso gerais.
Ao fazerem isso, cria-se uma perigosa vulnerabilidade, uma vez que, sem o conhecimento da empresa, expõem dados potencialmente sensíveis ao monitoramento padrão da OpenAI, transformando a conveniência da ferramenta em um risco latente à segurança da informação.
Desta forma, a empresa acredita que seu uso de IA está protegido por um contrato corporativo, ao passo que seus funcionários podem estar, por conveniência, utilizando contas pessoais e expondo dados sensíveis da organização às políticas de monitoramento padrão.
2. Principal vetor de risco: Ausência de sigilo legal
A percepção teórica sobre a fragilidade da privacidade em interações com a inteligência artificial transcendeu o texto dos termos de uso e ganhou contornos pragmáticos e urgentes com as recentes declarações de Sam Altman, CEO da OpenAI.
Em participação no podcast This Past Weekend W/ Theo Von (episódio #599, disponibilizado em 23 de julho de 2025)1, Altman verbalizou a ausência de qualquer privilégio legal que proteja a confidencialidade das conversas dos usuários.
Altman confirmou que as conversas mantidas com a IA “não são confidenciais” e, mais importante, não possuem qualquer tipo de privilégio legal. Suas palavras representam um alerta inequívoco sobre um hiato regulatório com profundas implicações.
“(…) Another thing I’m afraid of and we had a real problem with this earlier but it can get much worse, it’s just what this is going to mean for user’s mental health? There’s a lot of people that talk to ChatGPT all day long. There’s this sort of new AI companions that people talk to like they were a girlfriend or a boyfriend. And we’re talking earlier about how it’s probably not been good for kids to grow up on a dopamine hit of scrolling. (26:56) (…) I don’t think we know quite the ways in which it’s going to have these negative impacts but I feel for sure it’s gonna have some and I hope we can learn to mitigate it, quickly (27:38) (…) I think we’ll certainly need a legal or a policy frame work for AI. One example that we’ve been thinking about a lot, this is like, maybe not quite what you’re asking, this is like a very human centric version of that question, people talk about the most personal shit in their lives to ChatGPT, you know people use it, young people especially use it as a therapist, a life coach, having this relationship problems, what should I do. And right now if you talk to a therapist or a lawyer or a doctor about those problems, there’s legal privilege for it. There’s doctor-patient confidentiality, there’s legal confidentiality. And we haven’t figured that out yet for when you talk to ChatGPT. So if you go talk to ChatGPT about your most sensitive stuff and then there’s like a lawsuit or whatever, we could be required to produce that and I think that’s very screwed up. I think we should have the same concept of privacy for your conversations with AI that we do have with a therapist. And no one had to think about that a year ago. And now I think it’s this huge issue of how we’re gonna treat the laws about this. (31:03) (…) I think we need this point addressed with some urgency. The policy makers I’ve talked to about it are like “bro I agree, it’s just new and we gotta do it quickly (32:26) (…) I think it makes sense to really want the privacy clarity before you use it a lot, the legal clarity (36:36) (…)
TRADUÇÃO: “”(…) Outra coisa que me preocupa, e já tivemos um problema real com isso antes, mas pode ficar muito pior, é o impacto disso na saúde mental dos usuários. Há muitas pessoas que conversam com o ChatGPT o dia inteiro. Surgiu essa nova categoria de companheiros de IA, com quem as pessoas falam como se fossem namorada ou namorado. E falávamos antes sobre como provavelmente não tem sido bom para as crianças crescerem viciadas em dopamina ao rolar telas sem parar. (26:56) (…) Eu não acho que saibamos exatamente de que maneiras isso terá impactos negativos, mas tenho certeza de que terá alguns, e espero que possamos aprender a mitigá-los rapidamente. (27:38) (…) Acho que certamente vamos precisar de uma estrutura legal ou regulatória para a IA. Um exemplo sobre o qual temos pensado bastante, talvez não seja exatamente o que você perguntou, é uma versão muito centrada no ser humano dessa questão, é que as pessoas falam sobre as coisas mais pessoais de suas vidas com o ChatGPT. Jovens, especialmente, o utilizam como terapeuta, como coach de vida, perguntando sobre problemas de relacionamento, o que devem fazer. E hoje, se você fala com um terapeuta, advogado ou médico sobre esses problemas, existe sigilo legal. Há o sigilo médico-paciente, o sigilo profissional entre advogado e cliente. Mas ainda não definimos isso quando se trata de conversar com o ChatGPT. Então, se você fala com o ChatGPT sobre questões super sensíveis e depois houver, digamos, um processo judicial, poderíamos ser obrigados a fornecer essas conversas. E eu acho isso muito errado. Acho que deveríamos ter o mesmo conceito de privacidade nas conversas com a IA que já existe nas conversas com um terapeuta. E ninguém precisava pensar sobre isso há um ano. Agora, é uma questão enorme de como vamos tratar esse assunto nas leis. (31:03) (…) Acho que precisamos resolver esse ponto com urgência. Os formuladores de políticas públicas com quem conversei disseram algo como: “cara, concordo, é só que isso é novo e precisamos agir rápido”. (32:26) (…) Acho que faz sentido querer clareza sobre privacidade antes de usar muito (o ChatGPT), clareza legal. (36:36) (…)”
Diferentemente da relação com médicos, advogados ou terapeutas, que é protegida por sigilo profissional garantido por lei, a interação com um chatbot não goza de nenhuma proteção similar.
Altman alertou que, na ausência de um arcabouço legal específico, a OpenAI pode ser legalmente compelida a entregar os registros das conversas de um usuário mediante uma ordem judicial.
Essa vulnerabilidade transforma cada diálogo, por mais trivial que pareça, em um potencial documento probatório, passível de ser utilizado em um processo judicial.
Diversas ações judiciais já foram movidas contra empresas de IA, e é fato conhecido que a própria OpenAI já enfrenta disputas judiciais ligadas a essa questão. Tem repercutido um recente caso nos Estados Unidos da América, em que, mediante uma ordem judicial decorrente de ação do New York Times2, foi determinado que a OpenAI preserve os registros de chats dos usuários, com exceção dos clientes do ChatGPT Enterprise, para possível uso em juízo. A OpenAI recorreu, classificando a exigência como excessiva, temendo criar precedente para futuras intimações judiciais em massa.
Tal cenário evidencia que, na falta de uma estrutura legal específica, as informações compartilhadas com a IA podem ser acessadas por autoridades e usadas em investigações ou processos judiciais. Trata-se de um alerta crítico, mormente se considerarmos a tendência crescente de usuários que tratam o ChatGPT como um “terapeuta digital” ou um confidente para desabafos.
Esse contraste entre a percepção de intimidade e a realidade jurídica de exposição cria um terreno fértil para conflitos trabalhistas. Conforme exposto alhures, o que o usuário entende como um espaço seguro de desabafo ou reflexão, na verdade, pode ser um banco de dados acessível mediante ordem judicial.
A própria dinâmica de interação com a IA transforma sentimentos momentâneos em potenciais documentos probatórios, dotados de força e permanência que superam a efemeridade da fala oral ou da troca informal entre colegas. Isto porque, um empregado que utiliza a plataforma para expressar frustrações sobre o ambiente de trabalho, criticar seus gestores ou discutir problemas com colegas está, na prática, criando um registro detalhado e permanente de suas insatisfações.
Esse “diário digital”, desprovido da proteção legal de uma sessão terapêutica, médica ou jurídica, torna-se um arquivo de evidências que pode ser acessado e utilizado contra ele.
O que se verifica é que a dissonância entre a experiência do usuário, que se sente em um espaço privado, e a realidade jurídica, monitorada e sujeita à requisição judicial, é o principal vetor de risco.
3. A prova digital no ordenamento jurídico brasileiro
A constatação de que os dados do ChatGPT não são confidenciais e podem ser requisitados levanta uma questão subsequente: como essa informação, armazenada em servidores de uma empresa estrangeira, pode ser admitida como prova válida em um processo judicial no Brasil?
A resposta reside em um arcabouço legal robusto e tecnologicamente neutro, que já prevê os mecanismos para a obtenção e validação de provas digitais.
O sistema processual brasileiro é fundamentado no princípio da busca da verdade real e permite ampla flexibilidade na produção de provas. O art. 369 do CPC consagra o princípio da atipicidade dos meios de prova, estipulando que as partes podem empregar “todos os meios legais, bem como os moralmente legítimos, ainda que não especificados neste Código” para comprovar suas alegações.
Tal redação abarca naturalmente as novas formas de evidência que surgem com a evolução tecnológica, como e-mails, mensagens de aplicativos e, por extensão, os registros de conversas com inteligência artificial.
O Marco Civil da Internet (lei 12.965/14) complementa essa base principiológica com ferramentas processuais concretas. A lei define “provedores de aplicações de internet” de forma ampla, categoria na qual a OpenAI se enquadra perfeitamente. Ademais, o art. 22 autoriza que, por meio de ordem judicial, a parte interessada requeira a esses provedores a disponibilização de “registros de acesso a aplicações de internet” para formar o conjunto probatório em processos cíveis ou penais.
Nesta senda, é incontroverso que o ordenamento jurídico brasileiro não apenas permite a prova digital, mas também estabelece o procedimento para sua obtenção junto a terceiros que detêm os dados.
4. LGPD
Se por um lado o Marco Civil da Internet fornece os instrumentos necessários para a requisição judicial de registros digitais, por outro surge a necessidade de compatibilizar essa possibilidade com o regime protetivo da LGPD.
Isto porque, qualquer acesso a informações pessoais, mesmo quando autorizado judicialmente, deve observar os limites impostos pela LGPD, o que gera uma tensão aparente entre a busca da verdade real no processo e a tutela da privacidade do titular dos dados.
À primeira vista, a LGPD – lei 13.709/18) poderia ser interpretada como um obstáculo à obtenção de conversas privadas de um empregado. No entanto, uma análise mais aprofundada revela que a lei, na verdade, legitima esse procedimento quando realizado dentro dos parâmetros legais.
A LGPD foi elaborada para equilibrar o direito à privacidade com outras garantias fundamentais, incluindo o acesso à justiça e o direito à prova. A chave para essa compatibilização está no artigo 7º, inciso VI, que autoriza o tratamento de dados pessoais, mesmo sem o consentimento do titular, quando for necessário para o “exercício regular de direitos em processo judicial, administrativo ou arbitral”.
Neste sentido, um empregador com o intuito de provar uma falta grave cometida por um empregado para instruir sua defesa em uma reclamação trabalhista possui base legal sólida, prevista na própria LGPD, para requerer judicialmente o acesso aos dados pertinentes.
Não se trata de óbice à utilização processual de informações. Em verdade, a LGPD atua como mecanismo de harmonização direitos fundamentais. Enquanto protege o trabalhador contra o monitoramento indiscriminado e abusivo, vedando a realização de tais práticas, confere fundamento jurídico expresso para que o empregador, diante de indícios concretos de infração contratual, possa requerer judicialmente o acesso a dados digitais específicos.
É fato conhecido que o Judiciário, em sua atividade jurisdicional, realiza o tratamento de dados para a produção de provas, em plena conformidade com a lei. Assim, a LGPD resguarda a intimidade do empregado sem obstar o exercício regular de direitos pelo empregador, em consonância com o art. 7º, inciso VI, da referida norma, garantindo, por conseguinte, que a coleta e o uso dos dados ocorram de forma justificada e proporcional.
5. Conexão com o Direito do Trabalho: Implicações contratuais diretas
Ora, se a LGPD disciplina a forma pela qual as informações podem ser tratadas, cabe ao Direito do Trabalho examinar as consequências contratuais concretas decorrentes da ausência de sigilo nas interações com ferramentas de inteligência artificial.
É nesse ponto que a análise deixa de ser meramente abstrata ou principiológica e passa a revelar riscos efetivos à continuidade do vínculo empregatício, sobretudo diante da possibilidade de configuração de hipóteses de justa causa, decorrentes do uso imprudente dessas ferramentas.
A convergência entre a natureza pública das conversas com IA e a admissibilidade de provas digitais no Brasil tem consequências diretas e severas no âmbito das relações de trabalho. Isto porque, as ações realizadas por um empregado dentro do ChatGPT ou de outras IAs generativas, consideradas efêmeras ou privadas, podem, na realidade, ser documentadas e enquadradas como faltas graves, justificando a rescisão do contrato de trabalho pela penalidade máxima: a justa causa.
O art. 482 da CLT – Consolidação das Leis do Trabalho elenca as condutas que, por sua gravidade, rompem a confiança essencial à manutenção do vínculo empregatício. Diversas dessas hipóteses podem ser configuradas e, crucialmente, provadas por meio de registros de conversas com IA.
Em primeiro lugar, chama-se a atenção para a violação de segredo profissional (art. 482, alínea “g”) – talvez uma das aplicações mais “inocentes” e diretas. Nesta hipótese, um funcionário, na busca de otimizar o tempo despendido com o trabalho, insere dados confidenciais, como planilhas financeiras, estratégias comerciais, listas de clientes ou código-fonte proprietário, em uma IA generativa para que seja feita uma análise, resumo ou tradução. Ainda que não seja essa a intenção, o funcionário está, na prática, vazando informações sigilosas para um terceiro (a OpenAI, no caso do ChatGPT).
Cabe aqui ressaltar que os Eg. Tribunais têm validado a justa causa em casos de vazamento de dados, considerando a conduta uma violação da LGPD e uma grave quebra de lealdade, ante a inobservância do dever de confidencialidade das informações fornecidas pela Empresa.
JUSTA CAUSA. DEVER DE SIGILO QUEBRADO. MANUTENÇÃO DA PENALIDADE. Verificada a infração ao dever de confidencialidade das informações disponibilizadas ao empregado em decorrência de sua atividade de trabalho, deve ser mantida a dispensa por justa causa aplicada pela empresa, pois caracterizada a falta grave tipificada na alínea g do art . 482 da CLT. (TRT-3 – AP: 00109784820195030103 MG 0010978-48.2019.5 .03.0103, Relator.: Vitor Salino de Moura Eca, Data de Julgamento: 16/12/2020, 10ª turma, Data de Publicação: 17/12/2020.)
Em 2023, ganhou ampla repercussão o episódio envolvendo um funcionário da Samsung que, ao inserir informações sigilosas da companhia no ChatGPT, ocasionou o vazamento inadvertido de dados estratégicos. A gravidade do incidente resultou na sua demissão imediata e levou a empresa a adotar uma medida drástica: a proibição total do uso de ferramentas de inteligência artificial generativa por seus colaboradores, como forma de prevenir novos riscos de exposição de propriedade intelectual.
Uma outra hipótese de falta grave é a negociação habitual configuradora de ato de concorrência (art. 482, alínea “c”). Nesta situação, o uso de ferramentas de IA para elaborar um plano de negócios destinado a empresa concorrente, ou mesmo para estruturar projeto pessoal que rivalize com as atividades do empregador, valendo-se de informações e conhecimentos obtidos no exercício da função, caracteriza ato de concorrência desleal e atentatória à boa-fé contratual. Assim, o registro da interação com a IA constitui prova documental apta a demonstrar tanto a prática, quanto a intenção concorrencial do empregado.
A terceira hipótese corresponde ao ato lesivo da honra ou da boa fama praticado contra o empregador e superiores hierárquicos (art. 482, alínea “k”). Nessa perspectiva, o empregado que se vale de ferramentas de inteligência artificial para redigir textos difamatórios, elaborar “desabafos” ofensivos acerca da empresa ou de seus gestores, ou ainda planejar a divulgação de críticas depreciativas, cria uma prova material e irrefutável de sua conduta. Tais registros permitem evidenciar não apenas a prática em si, mas também a intenção deliberada de causar dano à imagem institucional ou pessoal dos superiores.
Seguindo esta linha, os registros de interações com inteligência artificial também podem servir para comprovar a prática de atos de improbidade (art. 482, alínea “a”) e de incontinência de conduta ou mau procedimento (art. 482, alínea “b”).
A improbidade se manifesta pela desonestidade, como no caso do empregado que usa a IA para elaborar documentos falsos, como atestados ou justificativas fraudulentas, circunstância em que o histórico da conversa revela não apenas a materialidade, mas igualmente a premeditação da fraude.
Já a incontinência de conduta ou o mau procedimento se configuram quando o trabalhador emprega a ferramenta para fins ilícitos, imorais ou em flagrante violação ao código de conduta da empresa durante o expediente, hipótese que igualmente autoriza a aplicação da justa causa.
Em que pese o uso de conversas com IA como prova em processos trabalhistas seja um fenômeno recente, a Justiça do Trabalho possui entendimento consolidado sobre a conduta de empregados em outras plataformas digitais, o que fornece um precedente análogo de grande relevância.
Decisões reiteradas, como as proferidas pelo TRT da 3ª região, têm reconhecido a validade da dispensa por justa causa de trabalhadores que publicaram comentários depreciativos acerca de seus empregadores em redes sociais como Facebook e LinkedIn3. O fundamento principal é que o direito à liberdade de expressão não é absoluto e não serve de escudo para atos que causem dano à honra e à imagem do empregador, violando o dever de lealdade inerente ao contrato de trabalho.
O raciocínio adotado para postagens públicas é plenamente aplicável a textos ofensivos elaborados e armazenados nos servidores do ChatGPT, uma vez que, em ambos os casos, subsistem o mesmo potencial de dano à reputação e a consequente quebra de confiança necessária à continuidade da relação de emprego.
Ademais, a jurisprudência é pacífica ao reconhecer como meio de prova lícito as comunicações digitais, como mensagens e áudios de WhatsApp, quando apresentadas por um dos interlocutores do diálogo, reforçando a admissibilidade de registros semelhantes oriundos de interações com ferramentas de inteligência artificial.
PROVA. LICITUDE. ÁUDIOS ENVIADOS POR WHATSAPP. A utilização de gravação ou registro de conversa por meio telefônico por um dos participantes, ainda que sem o conhecimento do outro, é meio lícito de prova . Esse entendimento, relativo às conversas por telefone, aplica-se igualmente às novas ferramentas de comunicação, tais como as mensagens e áudios enviados por aplicativos como o WhatsApp, de forma que não há vedação ao uso do conteúdo por um dos interlocutores como prova em processo judicial. (TRT-3 – RO: 00101270420195030137 MG 0010127-04.2019.5 .03.0137, Relator.: Cesar Machado, Data de Julgamento: 22/10/2020, 6ª turma, Data de Publicação: 26/10/2020.)
Ainda que, no caso do ChatGPT, a obtenção dos registros dependa de terceiro (o provedor do serviço), a lógica que orienta a admissibilidade das comunicações digitais como meios de prova já se encontra solidamente consolidada na jurisprudência trabalhista. Trata-se do reconhecimento de que tais registros constituem documentos idôneos e aptos a atestar, com elevado grau de fidedignidade, a ocorrência de determinados fatos relevantes ao litígio.
Para ilustrar a tangibilidade desses riscos, pense em três situações hipotéticas: (1) um analista que insere no ChatGPT o conteúdo de um plano estratégico sigiloso, registrando inadvertidamente um vazamento de informações confidenciais, (2) um empregado que, insatisfeito com seu gestor, redige, com auxílio da IA, um texto difamatório, produzindo prova de ato lesivo à honra; (3) ou ainda o vendedor que solicita à ferramenta a criação de um e-mail fraudulento para justificar metas não cumpridas, evidenciando ato de improbidade.
Em todos os casos, o histórico da interação constitui registro digital robusto e potencialmente apto a fundamentar a dispensa por justa causa. A principal diferença entre essas conversas ou um pensamento não expresso é que a interação com a IA cria um registro digital indelével.
A plataforma, nesse contexto, atua como uma testemunha tecnológica de memória perfeita, capaz de documentar, não apenas o resultado final, mas também todo o processo de raciocínio e a intenção do empregado revelada pela sequência de comandos (prompts). Esse elemento confere à prova um grau de fidelidade e força persuasiva muito superiores aos da prova exclusivamente testemunhal, dificultando sobremaneira a defesa do trabalhador.
Não obstante, urge destacar que, para fins de justa causa, a obtenção da prova deve respeitar o requisito da licitude. Desta forma, as provas obtidas de maneira ilícita, mediante violação da privacidade do empregado, sem autorização judicial, são inadmissíveis. É dizer, o empregador não pode acessar a conta pessoal do trabalhador em plataformas de IA e coletar informações sem consentimento. Contudo, havendo um litígio, o empregador poderá solicitar a preservação e exibição de registros de chats relevantes.
6. Análise de riscos e recomendações estratégicas
Diante dos riscos legais e trabalhistas apontados, a inação não se mostra alternativa viável, seja para empresas, seja para empregados.
É imprescindível adotar uma postura de governança proativa e de conscientização contínua, apta a mitigar litígios e assegurar o uso responsável das ferramentas de inteligência artificial generativa.
A responsabilidade primária de estabelecer um ambiente digitalmente seguro recai sobre o empregador. Uma estratégia eficaz, contudo, não se limita à proibição. Deve envolver políticas claras, programas de educação e a adoção de tecnologias adequadas.
Nesse sentido, impõe-se às empresas a elaboração e ampla divulgação de política específica sobre o uso de IA, definindo, de maneira cristalina, condutas permitidas e vedadas, listando ferramentas homologadas e, sobretudo, proibindo a inserção de dados confidenciais, proprietários ou pessoais (de clientes, colegas ou da própria empresa) em plataformas públicas não sancionadas. A ausência de normas objetivas fragiliza a posição da empresa em eventual litígio, especialmente quando determinada conduta tiver sido previamente tolerada.
Há que se ressaltar, porém, que políticas somente são efetivas quando compreendidas e internalizadas. Daí a necessidade de treinamentos periódicos sobre segurança da informação, a LGPD e riscos específicos associados ao uso da IA. A conscientização é a principal ferramenta para prevenir vazamentos acidentais, principalmente quando as informações sensíveis são inseridas no banco de dados das IAs por funcionários.
É igualmente crucial respeitar os limites de monitoramento. Embora o empregador possa fiscalizar recursos corporativos (e-mails e equipamentos fornecidos pela empresa), a vigilância sobre contas pessoais de IA configura área juridicamente complexa e arriscada. A estratégia mais segura e defensável consiste em priorizar a prevenção, mediante políticas claras e treinamentos, e, em caso de suspeita fundamentada, recorrer à via judicial para requerer a preservação e exibição dos registros.
O empregado, por sua vez, deve adotar postura cautelosa e responsável ao interagir com qualquer ferramenta de IA, especialmente no contexto profissional.
É necessário assumir a presunção de publicidade, ou seja, de que toda interação no ChatGPT pode, em tese, ser lida em juízo. Essa mentalidade é a forma mais eficaz de autoproteção. Ademais, jamais se deve inserir informações confidenciais da empresa, dados pessoais de clientes ou colegas, ou segredos comerciais em contas pessoais ou ferramentas abertas de IA.
A conveniência de uma resposta rápida não compensa o risco de uma falta grave – e, consequentemente, perder direitos rescisórios.
Recomenda-se, sempre que possível, utilizar apenas plataformas oficiais e gerenciadas pela própria empresa, regidas por contratos corporativos que assegurem maior nível de privacidade e segurança, tanto para o funcionário, quanto para a organização.
A crescente integração da IA ao ambiente de trabalho indica que sua regulamentação tende a tornar-se pauta central nas negociações coletivas, assim como ocorreu, em outros tempos, com o uso de celulares e e-mails corporativos.
Do mesmo modo que o uso de celulares no ambiente de trabalho deixou de ser mera questão de disciplina individual para tornar-se objeto de discussão coletiva e de regras de bom senso, é previsível que o emprego de ferramentas de inteligência artificial também passe a integrar os Acordos e Convenções Coletivas de Trabalho.
Tais instrumentos deverão disciplinar não apenas quais plataformas podem ser utilizadas, mas também os limites de monitoramento e as consequências disciplinares, de modo a equilibrar inovação e produtividade com a necessária proteção dos direitos dos trabalhadores.
7. Conclusão
A análise desenvolvida evidencia que a suposta privacidade nas interações com modelos de IA generativa, como o ChatGPT, não passa de uma ilusão com reflexos concretos e potencialmente severos no Direito do Trabalho.
A conjugação de três elementos, (1) as políticas de coleta de dados das plataformas de IA generativa, (2) as declarações inequívocas do CEO da OpenAI acerca da ausência de sigilo legal e (3) o sólido arcabouço jurídico brasileiro quanto à admissibilidade da prova digital – revela um caminho direto para que registros de conversas de um empregado com uma IA sejam utilizados como fundamento para a rescisão por justa causa.
A jurisprudência já consolidada sobre a má conduta em redes sociais encontra aplicação imediata no contexto das IAs, de modo que os tribunais tendem a reconhecer tais registros como documentos de alta fidelidade, aptos a demonstrar, tanto a materialidade da conduta, quanto o elemento volitivo do trabalhador.
O log de uma IA, funciona, portanto, como uma testemunha imparcial e de memória perfeita, tornando extremamente difícil a defesa em hipóteses de violação de segredo, atos lesivos à honra ou práticas de improbidade.
Diante desse cenário, a única postura sustentável é a da governança proativa, educação contínua e transparência. Cabe às empresas definir políticas claras e treinar suas equipes. Igualmente, cabe aos empregados, adotar a presunção de que nenhuma interação com a IA é efetivamente privada.
Ignorar essa nova realidade não constitui mera falha de segurança da informação, mas um risco jurídico iminente, capaz de comprometer carreiras e expor organizações a litígios complexos e dispendiosos.
_______
1 https://www.youtube.com/watch?v=aYn8VKW6vXA
Barbara Almeida Maia
Advogada na ASAF – Alex Santana e Fernanda Rocha Sociedade de Advogados, pós-graduada e especialista em Direito de Empresas pela PUC Minas.