EP#50: Direitos Autorais na era da IA generativa Podcast Por  capa

EP#50: Direitos Autorais na era da IA generativa

EP#50: Direitos Autorais na era da IA generativa

Ouça grátis

Ver detalhes do programa

Sobre este título

Você abre o celular de manhã, pede um resumo das manchetes e, em segundos, o ChatGPT entrega uma versão condensada das principais notícias do dia. Conveniente, rápido, quase mágico. Mas aí surge a pergunta incômoda: se esse resumo veio de reportagens produzidas por veículos que dependem de assinaturas para pagar as contas, quem está financiando o trabalho original? É justo que uma ferramenta de inteligência artificial entregue o resultado sem passar pelo caixa do jornal? Essa tensão coloca dois valores fundamentais em rota de colisão: de um lado, o direito autoral que protege a imprensa e garante a sobrevivência do jornalismo profissional; do outro, a ideia de livre circulação da informação, uma garantias constitucional que ganha força na era digital.

A disputa ganhou nome e número de processo. A Folha de S.Paulo processou a OpenAI em São Paulo. Pede duas frentes: que a empresa se abstenha de coletar e usar o conteúdo do jornal para treinar e para disponibilizar a usuários (inclusive em domínios sob paywall) e que indenize o uso pretérito. A petição descreve, entre outros pontos, reproduções de matérias no mesmo dia da publicação e a “burla do paywall”, caracterizando violação de direitos autorais e concorrência desleal. Há também um pedido duro: a destruição dos modelos que “incorporam” conteúdo protegido da autora, com base na Lei de Direitos Autorais.


Enquanto isso, no Congresso, o tema está quente. A Comissão Especial do PL 2338/23, que discute a regulamentação da Inteligência artificial no Brasil, registram diagnósticos que ajudam a separar dois conflitos distintos: “treinamento” e “resultado”. Pesquisadores apontaram que muitos países já admitem exceções para mineração de texto e dados (TDM) sem exigir licenças obra a obra, e que o texto atual em debate no Brasil, ao limitar o TDM essencialmente a instituições sem fins empresariais, poderia sufocar pesquisa e inovação privadas. Também sublinharam um gargalo técnico: hoje não existe método confiável para atribuir, após o treinamento, “quanto” de uma obra específica contribuiu para o modelo — analogia do “bolo”: depois de assado, não dá para separar 10% de ovo e 2% de leite em cada fatia. Essa impossibilidade de atribuição complica qualquer modelo de remuneração granular por obra na fase de treino.

Por outro lado, advogados, entidades de gestão e representantes de criadores foram taxativos: vigora o princípio de que uso de obra sem autorização do titular é violação; portanto, remunerar criadores cujas obras foram usadas para instruir sistemas de IA seria uma exigência coerente com a lógica da LDA. Há quem proponha, inclusive, reconhecer autoria do “sistema” com titularidade do operador/treinador — posição minoritária, mas presente no debate. Em paralelo, discute-se um “direito de veto” (opt-out) e mecanismos para restringir o uso de materiais por algoritmos, embora haja dúvidas técnicas sobre sua efetividade e rastreabilidade na prática.


A defesa técnica dos modelos aponta limites práticos de atribuição e remoção, e argumenta que eventuais danos são compensáveis sem medidas irreversíveis — tese que pesou para o juízo ouvir a parte contrária antes de decidir a liminar. No campo legislativo, há diagnóstico empírico de que exigir licenças obra a obra no treino e métricas de contribuição por obra não é, hoje, tecnicamente escalável.

É sobre esse tema que vamos debater no episódio de hoje. vem com a gente


Ainda não há avaliações