Sua Base de Código Escrita por IA é um Presente para Seus Concorrentes
Empresas que entregam código gerado por IA fizeram um trade que não entendem por completo. Elas carregam responsabilidade integral se a IA copiou trabalho de terceiros, mas não ganham nenhuma proteção de propriedade intelectual sobre o que ela produziu. Pela legislação consolidada nos EUA, código escrito inteiramente por IA não pertence a ninguém. Entra em domínio público no momento em que é gerado. Toda empresa que credita publicamente a IA pela sua base de código está entregando aos concorrentes um argumento legal para copiá-la.
Termos-chave usados ao longo deste post:
- DMCA (Digital Millennium Copyright Act): a lei dos EUA que permite a detentores de direitos autorais enviar notificações de remoção a plataformas que hospedam conteúdo infrator. Uma remoção por DMCA é como empresas forçam plataformas como o GitHub a remover código que viola seus direitos autorais.
- USCO (US Copyright Office): o órgão federal que registra obras protegidas por direitos autorais e emite orientações sobre o que se qualifica para proteção.
- Defesa de sala limpa (clean-room defense): uma estratégia legal em que uma equipe lê o código original e escreve uma especificação, e uma equipe separada e não exposta constrói a nova implementação a partir dessa especificação isoladamente.
Isso não é teórico. Em 31 de março de 2026, a Anthropic vazou acidentalmente todo o código-fonte do Claude Code (512.000 linhas de TypeScript). Em poucas horas, um desenvolvedor o injetou no Codex da OpenAI e produziu uma reescrita em Python. Essa reescrita tem mais de 75.000 estrelas no GitHub. A Anthropic não a removeu. A razão pela qual não removeram é a razão pela qual você deveria se importar com isso.
A lei está consolidada
O USCO exige autoria humana para proteção de direitos autorais. Os tribunais concordam em todos os níveis:
%%{init: {'themeVariables': {'fontSize': '24px'}}}%%
timeline
title Decisões sobre Copyright de IA (EUA)
Ago 2023 : Thaler v. Perlmutter, "autoria humana é requisito fundamental"
Jan 2025 : Relatório USCO Parte 2, prompts detalhados por si só não qualificam
Mar 2025 : Circuito D.C. confirma Thaler, IA é ferramenta, concepção é humana
Jul 2025 : Bartz v. Anthropic, treinar IA em conteúdo comprado é fair use
2 Mar 2026 : Suprema Corte nega análise em Thaler, sem mais recursos
31 Mar 2026 : Vazamento do Claude Code, a versão em Python testa cada questão em aberto
A questão da autoria fechou de forma constante ao longo de três anos, culminando na recusa da Suprema Corte em ouvir o caso. Não há mais nenhuma via de recurso.
O USCO registrou “centenas” de obras assistidas por IA, mas apenas onde humanos exerceram “controle criativo final” sobre elementos expressivos. Onde você se encaixa no espectro:
| Cenário | Protegível por copyright? | Por quê |
|---|---|---|
| Aceitar sugestão da IA literalmente | Não | Sem expressão humana no resultado |
| Fazer prompt na IA, selecionar entre saídas, organizar | Talvez | Depende se a seleção configura controle criativo |
| Usar IA para rascunhar, depois reescrever substancialmente | Provavelmente sim | A expressão humana existe nas modificações |
| Humano escreve o código, IA autocompleta boilerplate | Sim | O humano é o autor, a IA é a ferramenta |
A tabela responde a uma pergunta: onde está a linha entre uso de ferramenta e delegação? A resposta é que a linha depende dos fatos do caso e foi pouco testada nos tribunais. A maior parte do uso corporativo de IA cai nas duas primeiras linhas.
O vazamento do Claude Code prova o problema
O vazamento criou três camadas de confusão legal, cada uma mais difícil que a anterior.
Camada 1: Espelhos diretos. A Anthropic protocolou notificações DMCA contra repos que hospedavam o TypeScript vazado bruto. Essas são juridicamente sólidas. A base de código como um todo contém elementos de autoria humana. Direitos autorais sobre uma obra coletiva não exigem que cada linha seja escrita por humano.
Camada 2: A versão em Python. O desenvolvedor @realsigridjin injetou o TypeScript vazado no Codex e produziu uma reescrita em Python. Mais de 75 mil estrelas, mais de 75 mil forks. A Anthropic não protocolou um DMCA contra ela. A defesa tradicional de sala limpa (em que uma equipe lê o original e escreve uma especificação, e uma equipe separada e não exposta constrói o novo código) falha aqui porque o desenvolvedor injetou o original diretamente na IA. Mas a saída pode não ser protegível por copyright de qualquer forma. Sob Thaler, saída gerada por IA é domínio público. Nem a Anthropic nem o autor da reescrita “possuem” definitivamente esse código. O Plagiarism Today cunhou o termo “AI-washing copyright” para esse padrão: usar IA para contornar obrigações de licença enquanto se alega conformidade legal. Os tribunais ainda não trataram do tema.
Camada 3: “Cleanroom as a Service”. Uma startup chamada Malus agora oferece reconstruções automatizadas em sala limpa: um grupo de bots analisa requisitos e rascunha especificações, um segundo grupo gera o código. Eles afirmam que o resultado é “código legalmente distinto que você possui integralmente”. Especialistas legais chamam isso de “completamente falso”. O código gerado por IA é domínio público. Ninguém o possui, incluindo o comprador.
A Anthropic não tem uma boa opção
| Ação | Consequência | Efeito a jusante |
|---|---|---|
| DMCA contra a versão em Python | Precisa argumentar que a versão reproduz elementos expressivos protegíveis | Pode estabelecer que bases de código escritas por IA não têm copyright |
| Não fazer nada | A versão fica no ar, concorrentes ganham um blueprint | Sinaliza que qualquer base de código pode ser traduzida por IA com impunidade |
| Abrir o código do Claude Code | Neutraliza o vazamento | Concede que o ambiente de execução não é o diferencial |
Cada linha leva a um precedente que a Anthropic provavelmente não quer. O caminho do meio (não fazer nada) é o que escolheram até agora, mas o silêncio em si é um sinal para a indústria.
O risco assimétrico que você está carregando
O problema mais profundo, como paddo.dev enquadra: empresas que usam IA para escrever código enfrentam risco assimétrico. Você carrega responsabilidade integral por infração: se a IA reproduziu dados de treinamento protegidos, você pode ser processado. Mas não ganha proteção sobre a saída: se alguém copia o que a IA escreveu para você, não há recurso legal.
A própria pesquisa do GitHub mostra que cerca de 1% das sugestões do Copilot batem literalmente com dados de treinamento. Em escala corporativa, essa é uma superfície de exposição significativa. Doe v. GitHub, agora no Nono Circuito, alega que o Copilot remove avisos de copyright da saída de dados de treinamento (uma violação da Seção 1202(b) do DMCA) e infringe contratos de licença open-source. Duas reivindicações sobreviveram à dispensa preliminar. Bartz v. Anthropic (julho de 2025) decidiu que usar conteúdo legalmente comprado para treinamento de LLM constitui uso justo (fair use), mas isso ajuda do lado dos dados de treinamento, não do lado do copyright da saída.
“Mas nossos termos de uso dizem que possuímos o código”
Termos de uso podem atribuir propriedade, mas não podem criar copyright em obras que a lei considera não-protegíveis. Um contrato dizendo que você possui material em domínio público não tem força legal. Fazer prompt sozinho não cria autoria: o USCO exige controle criativo sobre os elementos expressivos da saída, não apenas sobre a entrada.
| Risco | Probabilidade | Impacto |
|---|---|---|
| Concorrentes copiam seu código gerado por IA legalmente | Alta (se aceito literalmente) | Alto (sem recurso legal) |
| Violação de licença por dados de treinamento reproduzidos pela IA | Média (taxa de coincidência literal de cerca de 1%) | Alto (exposição DMCA em escala) |
| Declarações públicas de autoria por IA minam sua propriedade intelectual | Alta (se a liderança credita a IA) | Catastrófico |
| Aparece uma versão traduzida por IA de código proprietário | Baixa-Média | Alto (sem caminho DMCA claro) |
Essa tabela mapeia o cenário de risco para líderes de engenharia. A terceira linha é a mais negligenciada: cada declaração pública creditando a IA pela sua base de código é potencial evidência contra suas próprias reivindicações de copyright.
O que fazer diferente
O custo de acelerar com IA é um fosso de propriedade intelectual mais estreito. Esse trade-off pode valer a pena. Deve ser uma decisão consciente, não uma surpresa.
Se sua vantagem competitiva depende de código proprietário (não da marca, não de pesos de modelo, não de efeitos de rede), priorize autoria humana em código que importa competitivamente. Use IA livremente em código de commodity, onde cópia é irrelevante. Pare de dizer aos investidores que “nossos engenheiros usam IA para tudo”.
Fique atento:
- Doe v. GitHub no Nono Circuito sobre responsabilidade DMCA na saída de IA.
- A resposta da Anthropic à versão em Python.
- Se o Congresso aprovar algo significativo antes das eleições de meio de mandato de 2026.
Leitura adicional
- USCO Part 2: Copyrightability Report (PDF)
- Cleanroom as a Service: AI-Washing Copyright (Plagiarism Today)
- All the Liability, None of the Protection (paddo.dev)
- Diving into Claude Code’s Source Leak (Engineer’s Codex)
- CLEAR Act (IPWatchdog)
- Doe v. GitHub Ninth Circuit Brief (CCIA)
- NeetCode: “Claude Code’s Entire Source Code Was Leaked” (YouTube)
- Supreme Court Denies Cert in Thaler (Baker Donelson)
- Supreme Court Declines AI Copyright Case (Morgan Lewis)
- The Final Word on AI Authorship (Holland & Knight)
- Claude Code Leak (VentureBeat)
- Claude Code Leak (The Register)