O que o caso de “I Run” revela sobre os desafios da transparência na era da IA
- Maria Clara Gomide
- há 1 dia
- 8 min de leitura

Se você possui conta no TikTok e surfou pelo seu feed nos últimos dois meses, provavelmente esbarrou em vídeos de usuários ao som da música “I Run”, do projeto musical conhecido como “Haven”, dos produtores britânicos Harrison Walker e Jacob Donaghue.
Ela surgiu como tantos outros fenômenos musicais contemporâneos, um trecho irresistível viralizado no TikTok, um clima emocional empático e um público pronto para abraçar um novo artista. Mas, em poucas horas, aquele entusiasmo inicial virou desconfiança. O motivo era simples, e preocupante para qualquer obra autoral, afinal ninguém sabia quem estava cantando. Não há como negar que o primeiro trecho de “I Run” lembrava muito a voz da artista Jorja Smith, mas nenhum nome aparecia nos créditos. E bastou esse silêncio para que o público recuasse.
Quando a indústria escolhe esconder quem está por trás da voz, ela não está só testando limite jurídico; está rompendo, na prática, o pacto de confiança básica com quem dá play. E, em 2025, confiança é o ativo que mais vale na mesa, muito mais do que qualquer métrica de viralização de poucos segundos.
O que parecia um detalhe se mostrou, na verdade, o centro de toda a discussão, que transformou um hit “orgânico” em estudo sobre tecnologia, autoria e a importância da transparência em um mercado que ainda corre atrás da velocidade da Inteligência Artificial (“IA”), cada vez mais pujante e presente em várias camadas da nossa vida cotidiana.
A primeira lição que podemos tirar é bem direta, ou seja, a identidade segue importando, tanto para quem consome quanto para o universo jurídico. Música é relação, não é só produto. Na indústria criativa, a identificação importa tanto quanto a obra. Voz é assinatura, a marca de quem a detém. Voz é personalidade. Quando o público não sabe com quem está se relacionando, o vínculo de “relatability” se rompe.
E isso conversa 100% com a lógica dos direitos da personalidade, que protegem a voz como elemento indissociável do indivíduo, base do nosso sistema jurídico civil e, por consequência, autoral (art. 90 da Lei 9.610/98). No Brasil, e em várias outras jurisdições, a voz é tratada como atributo da personalidade, protegida como extensão da própria pessoa humana (Ex.: artigos 11 a 21 do Código Civil brasileiro). Não se trata apenas de estética, trata-se de titularidade, consentimento e reconhecimento.
Esse vácuo foi amplificado pela segunda percepção, de que o problema central não foi o uso de IA em si, mas a falta de crédito. Quando o público descobriu que um dos integrantes do projeto Haven, Harrison Walker, tinha usado a ferramenta de IA “Suno” para modular a própria voz e fazê-la soar feminina, a reação não foi contra a tecnologia. Foi contra o jeito dela ser usada, sem transparência alguma.
Por isso, por volta de meados de novembro de 2025, “I Run” acabou sendo removida do TikTok e das plataformas de streaming depois que a The Orchard, distribuidora parceira da FAMM, label de Jorja Smith, e entidades da indústria, como a Recording Industry Association of America (“RIAA”) e a International Federation of the Phonographic Industry (“IFPI”) entenderam que a faixa violava direitos autorais e de personalidade ao induzir o público a achar que se tratava de um lançamento não oficial da artista. Segundo o jornal the Guardian, a FAMM alegou que a música inicialmente permaneceu nas plataformas de streaming e redes sociais porque tinha quatro distribuidoras diferentes trabalhando o lançamento de forma “agressiva”, o que acabou “contornando os procedimentos usuais de remoção” e alimentando a confusão sobre a autoria.
E aqui entra um ponto sensível; hoje, não existe, um regime jurídico nacional ou internacional consolidado para simulações de voz via IA quando não há titular identificável. O que existe é a proteção clássica ao direito de autor e aos direitos da personalidade desse autor, o que significa que o conflito só se materializa quando alguém pode ser apontado como violado. Quando a imitação é difusa, o direito positivo ainda tateia no escuro. Isso ajuda a explicar por que as plataformas demoraram para ter uma ação e só reagiram quando titulares apresentaram pedidos de takedowns formais da faixa musical.
Quando olhamos para dentro de casa, o sistema jurídico brasileiro, regido pela Lei 9.610/98, possui ferramentas para lidar com infrações bem delimitadas, tais como o plágio/cópia não autorizada, uso indevido de obra, violação de direitos fonográficos, conflitos de titularidade, entre outros. Mas ainda engasga quando entra em cena a semelhança estilística, a simulação vocal e modelos generativos que produzem conteúdo sem origem clara. Em outras palavras, a estrutura legal está preparada para proteger obras e interpretações dessas obras, mas não para lidar com probabilidades sonoras ou similaridades geradas por algoritmo.
Essa lacuna jurídica fica mais evidente quando comparamos nosso sistema com outras realidades internacionais:
Nos EUA, as discussões em torno do “right of publicity” já incorporam debates jurisprudenciais sobre deepfakes e voz sintetizada (vide o caso Arista Records LLC v. Lime Group LLC), mas ainda não existe legislação federal unificada a esse respeito para garantir um norte claro ao mercado.
Na União Europeia, o AI Act, que começou a vigorar parcialmente em agosto de 2025, passa a exigir transparência sobre conteúdo gerado por IA, mas não define ainda um regime claro de imputação de responsabilidade artística frente a um conflito fático, não havendo medidas punitivas suficientes disponíveis.
E, de volta ao Brasil, operamos com a Lei 9.610 de 1998, que protege a obra, a interpretação e a voz humana, mas não endereça expressamente a simulação e/ou geração artificial de conteúdo e deepfakes, criando zonas cinzentas para casos como o de “I Run”.
A terceira lição que podemos retirar do caso, e do contexto jurídico global, é que a tecnologia pode replicar, imitar e confundir o ouvinte, mas não possui, por si só, responsabilidade jurídica. Quem responde é o titular da obra, que deve garantir transparência mínima sobre o que está entregando.
E aí o caso caminha para um desfecho curioso, porque a “solução” veio de onde ninguém esperava. Uma usuária da plataforma, Kaitlin Aragon, publicou um cover de “I Run” que preenchia exatamente o vazio deixado pela versão inicial. Uma voz humana, identificável e com a mesma coerência emocional daquela gerada por IA. Em poucas horas, a comunidade reconheceu nela o que faltava, uma intérprete real. Esse movimento orgânico revela que, enquanto o direito ainda busca parâmetros, a audiência continua valorizando a autenticidade.
A label de Haven, Broke Records, agiu rapidamente e trouxe Kaitlin Aragon oficialmente para o projeto, regravando a faixa com sua voz e creditando-a na canção. A gravadora entendeu que transparência não é só boa prática, é cada vez mais, um mecanismo de proteção contra riscos de uso não autorizado que estão se intensificando no mundo inteiro. Do ponto de vista do direito autoral de um sistema civil law, como o nosso, a escolha também reforça a lógica de atribuição, consentimento e titularidade, os três pilares de qualquer cadeia de direitos sólida.
Esse passo ajudou a reconquistar a confiança da comunidade e transformou uma crise em um reposicionamento estratégico. Transparência, talvez, não seja apenas uma exigência legal e eixo da boa fé nas relações, mas é uma ferramenta de sobrevivência digital frente às lacunas da lei.
Haven teve sorte, por enquanto. A nova versão de “I Run” entrou para o Top 40 UK da lista da Billboard. Uma substituição humana competente surgiu. Mas não é o fim da história. A gravadora de Jorja, FAMM, decidiu buscar reparações judiciais frente ao caso. A decisão judicial nesse processo pode inaugurar um precedente importante sobre a utilização de obras protegidas no treinamento de IA, e principalmente, esclarecer se a voz de um artista pode ou não ser tratada como uma obra autoral protegida e seu status de ativo.
Nessa mesma linha de transparência cada vez mais valorizada pelo público, a gravadora busca, com o processo, que conteúdos gerados por AI sejam claramente classificados e identificados como tal, para que o público possa escolher se deseja consumir esse material ou não, ponto que eles reforçaram em comunicado no próprio perfil no Instagram.
“I Run”, então, deixa de ser a história de uma música viral. É um prenúncio. Uma demonstração clara de que estamos entrando em uma era em que a tecnologia avança mais rápido do que as estruturas legais, e em que pequenos silêncios, como um nome omitido, podem gerar grandes ruídos. O que faremos quando a IA soar impecável, indistinguível e quando simplesmente não houver uma voz humana disponível para salvar a narrativa ou restaurar a confiança do público, ainda frente à falta do aparato legal de proteção?
Não se pode dizer que estamos parados no tempo. A legislação global está avançando no debate sobre “IA transparency”, a discussão sobre “autoria não humana”, os primeiros projetos de lei sobre deepfakes, e os tratados internacionais que tentam atualizar os padrões de 1886 para os desafios de 2025. Esses temas estão disputando espaço contra a batalha de investimentos e interesses das big techs.
Parafraseando Danielle Williams, da The Princeton Legal Journal, ao passo em que a tecnologia avança sem pausa, as legislações também precisam se adaptar para garantir que as leis sigam servindo o propósito ao qual foram inicialmente criadas, proteger os direitos dos autores e incentivar a criatividade humana para não a tornar apenas mais um mero input na otimização de algoritmos.
Se o direito ainda não dá todas as respostas, quem cria, licencia e distribui precisa decidir qual história quer contar sobre si: a de quem espera o primeiro litígio para descobrir seus limites ou a de quem já assume, desde agora, uma governança madura sobre o uso de tecnologia. Em última instância, quem não desenhar transparência como parte estrutural do projeto terá sua narrativa escrita por terceiros, sejam estes juízes, plataformas ou, pior, pelo tribunal silencioso do público que simplesmente para de ouvir.
Bibliografia:
ACT, AI. União Europeia inicia aplicação do “AI Act” em agosto de 2025 - Migalhas. Migalhas. Disponível em: <https://www.migalhas.com.br/depeso/435999/uniao-europeia-inicia-aplicacao-do-ai-act-em-agosto-de-2025>. Acesso em: 11 dez. 2025.
ALTIUS. Deepfakes in the music industry: Will the AI Act change the tune? Altius. Disponível em: <https://www.altius.com/en/news/deepfakes-in-the-music-industry-will-the-ai-act-change-the-tune/>. Acesso em: 11 dez. 2025.
ARAGON, Kaitlin. Vídeo no TikTok. Disponível em: https://www.tiktok.com/@kaitlinaragon1/video/7575039713598311711. Acesso em: 11 dez. 2025.
Arista Records LLC v. Lime Group LLC | Loeb & Loeb LLP. Loeb.com. Disponível em: <https://www.loeb.com/en/insights/publications/2011/03/arista-records-llc-v-lime-group-llc>. Acesso em: 11 dez. 2025.
BRASIL. Lei nº 9.610, de 19 de fevereiro de 1998. Dispõe sobre os direitos autorais e dá outras providências. Diário Oficial da União, Brasília, DF, 19 fev. 1998. Disponível em: <http://www.planalto.gov.br/ccivil_03/leis/L9610.htm>. Acesso em: 11 dez. 2025.
BRASIL. Código Civil Brasileiro. Lei nº 10.406, de 10 de janeiro de 2002. Diário Oficial da União, Brasília, DF, 10 jan. 2002. Disponível em: <http://www.planalto.gov.br/ccivil_03/leis/2002/l10406.htm>. Acesso em: 11 dez. 2025.
BUARQUE, Gabriela. A tutela da voz e a deepfake music. JOTA Jornalismo. Disponível em: <https://www.jota.info/opiniao-e-analise/artigos/a-tutela-da-voz-e-a-deepfake-music>. Acesso em: 11 dez. 2025.
CAMBRIDGE DICTIONARY. relatability. @CambridgeWords. Disponível em: <https://dictionary.cambridge.org/pt/dicionario/ingles/relatability>. Acesso em: 11 dez. 2025.
ESTADOS UNIDOS. Digital Millennium Copyright Act (DMCA). Lei nº 105-304, de 28 de outubro de 1998. Disponível em: https://www.copyright.gov/legislation/dmca.pdf. Acesso em: 11 dez. 2025.
EUROPA. AI Act. Regulation - EU - 2024/1689 - EN - EUR-Lex. Europa.eu. Disponível em: <https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:32024R1689>. Acesso em: 11 dez. 2025.
FONDREN, Precious. Would You Listen to a Song if You Knew It Was Made by AI? The “I Run” Controversy, Explained. Type.Set.Brooklyn. Disponível em: <https://typesetbrooklyn.com/articles/jorja-smith-ai-song-i-run-explained>. Acesso em: 11 dez. 2025.
HESS, Tobias. HAVEN. vs. Jorja Smith: How “I Run” will shape AI music’s future. The FADER. Disponível em: <https://www.thefader.com/2025/12/05/haven-jorja-smith-i-run-shape-music-ai-future>. Acesso em: 11 dez. 2025.
HUDSON, Kelly. AI-Generated Hit Song “I Run” Subject to Legal Debate - McDaniels IP Solicitors | Intellectual Property Lawyers Newcastle. McDaniels IP Solicitors | Intellectual Property Lawyers Newcastle. Disponível em: <https://mcdanielslaw.com/ai-generated-hit-song-i-run-subject-to-legal-debate/>. Acesso em: 11 dez. 2025.
KING, Ashley. HAVEN.’s “I Run” Explained: What the Heck Just Happened. Digital Music News. Disponível em: <https://www.digitalmusicnews.com/2025/11/24/havens-i-run-ai-song-explained/>. Acesso em: 11 dez. 2025.
LORING, Jason M. AI Music Presents Novel Issues Within Current Frameworks. The National Law Review. Disponível em: <https://natlawreview.com/article/ai-music-presents-novel-issues-within-current-frameworks>. Acesso em: 11 dez. 2025.
Right of Publicity. The Free Speech Center. Disponível em: <https://firstamendment.mtsu.edu/article/right-of-publicity/>. Acesso em: 11 dez. 2025.
SAVAGE, Mark. Jorja Smith’s record label wants royalties from “AI clone” song I Run by Haven. Bbc.com. Disponível em: <https://www.bbc.com/news/articles/cwyvjye18e9o>. Acesso em: 11 dez. 2025.
SNAPES, Laura. Jorja Smith’s label requests share of royalties from “AI-cloned” TikTok viral song. the Guardian. Disponível em: <https://www.theguardian.com/music/2025/dec/01/jorja-smiths-label-requests-share-of-royalties-from-ai-cloned-tiktok-viral-song>. Acesso em: 11 dez. 2025.
WILLIAMS, Danielle. What’s in a Name…or a Voice? Protecting Artists from Deepfakes in the Music Industry - Princeton Legal Journal. Princeton Legal Journal. Disponível em: <https://legaljournal.princeton.edu/whats-in-a-nameor-a-voice-protecting-artists-from-deepfakes-in-the-music-industry/>. Acesso em: 11 dez. 2025.
Texto: Maria Clara Gomide
Revisão: Raquel Lemos
Siga @artiscultural nas redes sociais.



Comentários