O CEO não foi ao jurídico; foi ao ChatGPT

Quando o uso da inteligência artificial vira prova: o caso Krafton e o que ele revela para o direito brasileiro
O que torna o caso relevante não é apenas o resultado — é a forma como as interações com a IA chegaram ao processo

COMPARTILHE

Lucas Sampaio Santos

Changhan Kim, CEO da Krafton, havia adquirido o estúdio Unknown Worlds por US$ 500 milhões em 2021, com cláusula de earnout de até US$ 250 milhões adicionais atrelada ao desempenho do jogo Subnautica 2.

Earnout é uma cláusula contratual em fusões e aquisições (M&A) onde parte do preço de compra da empresa é paga futuramente, condicionada ao alcance de metas de desempenho (como faturamento ou lucro).

Quando as projeções internas indicaram que o lançamento do jogo provavelmente acionaria o pagamento integral, Kim ficou alarmado — e, depois de ser alertado pela própria equipe jurídica de que agir contra os fundadores geraria risco de processo e de reputação, recorreu a uma ferramenta de IA para decidir o que fazer.

Inicialmente, a ferramenta indicou a dificuldade de evitar o pagamento do earnout. Em seguida, passou a sugerir caminhos alternativos — incluindo uma estratégia estruturada, em múltiplas etapas, para assumir o controle do estúdio, que viria a ser tratada internamente como “Projeto X”. O plano envolvia narrativa pública antecipada, bloqueio de direitos de distribuição, pressão sobre os fundadores e preparação sistemática de defesas jurídicas. A empresa passou a adotar medidas alinhadas a essa lógica.

O que Kim não previu foi que suas interações com o ChatGPT — que ele posteriormente deletou — acabariam sendo reconstruídas no processo. Em 16 de março de 2026, a Vice-Chancellor Lori Will, da Court of Chancery de Delaware, concluiu que a demissão dos fundadores foi motivada por razões diversas das alegadas, vinculadas à tentativa de evitar o pagamento do earnout, e determinou a reintegração do CEO do estúdio.

O que torna o caso relevante não é apenas o resultado — é a forma como as interações com a IA chegaram ao processo. Kim admitiu em julgamento que havia apagado registros relevantes do ChatGPT. Ainda assim, o conteúdo dessas interações havia sido relatado em comunicações internas com colegas, que foram produzidas no discovery. O histórico apagado deixou rastro em outro lugar.

Esse mecanismo probatório tem paralelo direto no direito brasileiro. O art. 400 do CPC permite que o juiz determine a exibição de documentos em poder da parte ou de terceiros. O art. 403 vai além: quando a parte recusa a exibição sem justificativa legítima, o juiz pode presumir como verdadeiros os fatos que o documento deveria provar. Em outras palavras, deletar o histórico de uma conversa com IA não elimina necessariamente o problema — pode agravá-lo.

Além disso, o sistema processual brasileiro admite expressamente a reconstrução da intenção a partir de indícios. O art. 375 do CPC autoriza o juiz a se valer das regras de experiência comum, e a jurisprudência é consolidada no sentido de que comportamentos contraditórios, sequências de atos e comunicações internas podem ser utilizados para demonstrar má-fé ou desvio de finalidade — exatamente o tipo de raciocínio adotado pelo tribunal americano.

Há ainda uma ferramenta processual que ganha novos contornos nesse contexto: a ação de produção antecipada de provas, prevista no art. 381 do CPC. Em litígios empresariais com risco de perda ou destruição de evidências digitais, ela permite a preservação de documentos antes mesmo do ajuizamento da ação principal. Em determinadas situações, pode ser combinada com ofício judicial dirigido diretamente à empresa fornecedora da plataforma de IA — com base nos arts. 396 e seguintes do CPC —, abrindo caminho para o acesso a registros que a parte adversa preferiria que não existissem.

Essa possibilidade é relevante não apenas em litígios societários. Em disputas trabalhistas, arbitragens internacionais e até em investigações regulatórias, executivos que utilizam plataformas de IA para estruturar decisões sensíveis podem estar criando um rastro probatório que desconhecem.

O caso Krafton, lido em conjunto com a decisão do SDNY sobre Bradley Heppner — na qual interações com o Claude foram afastadas da proteção do sigilo profissional —, forma um quadro mais amplo: a inteligência artificial está se tornando um ator involuntário nos litígios. Ela não assina documentos, não testemunha, não tem responsabilidade jurídica. Mas o que se diz a ela pode aparecer no processo.

Para advogados que atuam em M&A, disputas societárias ou arbitragem, uma pergunta passou a ser obrigatória no início de qualquer caso: seu cliente conversou com alguma ferramenta de IA sobre esse assunto? A resposta pode definir a estratégia — e, eventualmente, o resultado.

Lucas Sampaio Santos

Lucas Sampaio Santos, sócio do Arruda Alvim Advogados. Mestre em Direito Civil pela PUC-SP, com pós-graduação em Direito Processual Civil pela mesma instituição e graduação em Direito pela Faculdade de Direito da PUC-SP. Atua há mais de 15 anos em Contencioso Cível e Arbitragem, com experiência em litígios estratégicos empresariais e disputas societárias.

COMPARTILHE

Leia também

Receba nossa Newsletter

Negócios, Compliance, Carreira, Legislação. Inscreva-se e receba nosso boletim semanal.

TAGS

NOSSAS REDES

Nosso site utiliza Cookies e tecnologias semelhantes para aprimorar sua experiência de navegação e mostrar anúncios personalizados, conforme nossa Política de Privacidade.

Exit mobile version