Tecnología

La industria musical está intentando hacer frente a los “abusos de la IA”

La industria musical enfrenta una ola de abusos por parte de la inteligencia artificial.

8 de abril de 2025, 2:47 a. m.
El uso no autorizado de voces musicales por IA desata alarma en el sector.
Las discográficas intensifican su lucha contra canciones falsas creadas con IA. | Foto: Getty Images/iStockphoto

La industria musical libra una batalla desigual contra la apropiación indebida de sus contenidos mediante inteligencia artificial generativa.

Esta ofensiva se desarrolla en múltiples frentes —tribunales, plataformas digitales y entornos políticos—, pero los resultados son aún escasos.

La discográfica Sony Music, por ejemplo, ha solicitado la retirada de más de 75.000 deepfakes musicales de Internet, una cifra que pone en evidencia la magnitud del fenómeno. Estas creaciones, generadas por software sin la participación directa de artistas reales, circulan con facilidad en plataformas como YouTube o Spotify.

En pocos minutos es posible encontrar, por ejemplo, un falso rap de 2Pac hablando de pizzas o una versión inexistente de Ariana Grande interpretando un éxito de K-pop.

Frente a esta situación, algunas compañías trabajan en soluciones tecnológicas. “Aunque parezcan realistas, las canciones creadas con IA presentan ligeras irregularidades de frecuencia, ritmo y firma digital que no se encuentran en la voz humana”, explica Pindrop, empresa especializada en identificación vocal.

Por su parte, Spotify aseguró esta semana, a través de su responsable de política regulatoria, Sam Duboff, que “nos tomamos esto muy en serio y estamos desarrollando nuevas herramientas para mejorar” la detección de contenidos generados por IA.

YouTube también anunció que está “perfeccionando (su) tecnología con (sus) socios” y prometió novedades en las próximas semanas.

Sin embargo, el problema parece avanzar más rápido que las soluciones. Jeremy Goldman, analista de Emarketer, advierte que “los actores maliciosos van un paso por delante” y añade: “YouTube tiene miles de millones de dólares en juego, así que uno pensaría que se las arreglarán para solucionar el problema (…) porque no quieren ver cómo su plataforma se convierte en una pesadilla de IA”.

Demandas judiciales y la ambigüedad del “uso justo”

Más allá del contenido falso, el punto que más inquieta a la industria musical es el uso no autorizado de grabaciones para alimentar modelos de inteligencia artificial.

Empresas como Suno, Udio y Mubert han sido señaladas por desarrollar sus interfaces con grabaciones protegidas por derechos de autor, lo que ha derivado en demandas judiciales por parte de los grandes sellos discográficos.

En junio pasado, varias compañías presentaron una querella ante un tribunal federal de Nueva York contra la matriz de Udio, acusándola de utilizar obras registradas con el fin de atraer a usuarios y desviar oyentes de las plataformas legítimas.

Expertos detectan una tendencia en la que se ocultan enlaces peligrosos en servicios de música online.
Las aplicaciones para escuchar música son el último objetivo de ciberdelincuentes, alertan especialistas. | Foto: Getty Images

Un proceso similar avanza en Massachusetts contra Suno. No obstante, aún no hay fecha para ningún juicio.

El núcleo legal del debate gira en torno al concepto de “uso justo”, que permite ciertas excepciones en la aplicación de los derechos de autor. “Estamos en una zona de auténtica incertidumbre” sobre cómo interpretarán los tribunales estas reglas, afirma Joseph Fishman, profesor de Derecho en la Universidad de Vanderbilt.

El académico subraya que los primeros fallos no serán definitivos, y si los jueces no logran un consenso, el caso podría escalar hasta el Tribunal Supremo de Estados Unidos.

Mientras tanto, las compañías que desarrollan IA musical siguen nutriendo sus modelos con datos protegidos. “No estoy seguro de que sea demasiado tarde, pero muchas de estas interfaces ya se han desarrollado con material registrado”, advierte Fishman, quien señala que nuevos modelos podrían estar obligados a cumplir sentencias futuras.

El frente político: legislación estancada y presiones empresariales

En el ámbito legislativo, la industria musical tampoco ha conseguido avances significativos. En el Congreso de Estados Unidos se han presentado múltiples proyectos de ley destinados a regular el uso de IA en la creación musical, pero ninguno ha prosperado.

Algunos estados, como Tennessee, han impulsado normas para enfrentar los deepfakes, aunque sus alcances son limitados.

El escenario político se complica aún más con la influencia de figuras como Donald Trump, quien ha abogado por una mayor desregulación tecnológica, incluyendo la inteligencia artificial.

Los cibercriminales solo necesitan un registro de su voz.
De maneras fáciles, podría estar dando lo que necesitan los cibercriminales para hacer de las suyas. | Foto: Getty Images

Varias grandes empresas, como Meta, han respaldado esta postura. La compañía ha instado al gobierno a reconocer el uso de datos públicos para entrenar modelos de IA como un caso claro de uso justo.

En caso de un segundo mandato de Trump, estas propuestas podrían inclinar la balanza contra los intereses de músicos y sellos discográficos, aunque, como señalan los analistas, serán los tribunales quienes probablemente tengan la última palabra.

La situación tampoco es más favorable en el Reino Unido. El gobierno laborista lanzó recientemente una consulta con el fin de flexibilizar la ley de propiedad intelectual, facilitando así el acceso de los desarrolladores de IA a contenido protegido.

Como protesta, más de 1.000 artistas se unieron para lanzar un álbum silencioso titulado “¿Es esto lo que queremos?”, a finales de febrero.

Jeremy Goldman concluye que los abusos persisten porque “la industria musical está muy fragmentada, lo que la sitúa en desventaja a la hora de resolver el problema”. Entre deepfakes, vacíos legales y presiones políticas, la batalla por proteger la música frente a la inteligencia artificial aún está lejos de resolverse.

*Con información de AFP.

Noticias relacionadas