Por ahora, la conversación alrededor de la integración de la IA generativa en la industria musical está dando círculos sobre sí misma. Y en el centro encontramos un único binomio de dos piezas: la certificación (quién entrenó con qué) y la auditoría (quién puede demostrarlo, bajo qué protocolo, con qué margen de error). Mientras esas cuestiones sigan ambiguas, todo lo demás se vuelve humo con apariencia de debate serio: el "licenciamos", el "protegemos a los creadores", el "vamos a compensar", incluso el "vamos a prohibirlo". La intención puede ser buena, pero sin un sistema verificable de trazabilidad (datasets, modelos), la unidad común para medir, comparar o repartir no existe. Sólo pueden imaginarla.

Por repasar un poco: UMG y las otras majors empujan hacia acuerdos de licencia y control del acceso (la IA generativa como circuito cerrado, centrado en la interacción del superfan con la música y catálogo para crear una nueva experiencia centrada en el mash up). Cuando tratamos su postura de forma extensa, ya hablamos de la "au(di)toría estadística", una posible solución "chapucera" a la imposibilidad de atravesar los algoritmos de caja negra que usan los modelos (Suno, Udio, etc).

Como vimos hace unas semanas, Bandcamp juega otra partida, más moral que técnica, pero ataca al mismo nervio: si no puedes certificar de dónde viene la música, ¿cómo sostienes "confianza" sin convertir la plataforma en un coladero? Ahí la prohibición solo intenta evitar el colapso reputacional.

Y luego están las entidades de gestión (ASCAP, BMI, SOCAN), que básicamente, resignadas, dicen: "si vamos a convivir con música generagtiva, necesitamos un mecanismo de regalías que sea aplicable a escala". Pero vuelve a chocar sobre lo mismo: ¿sobre qué datos calculas esas regalías si no hay disclosure del dataset ni trazabilidad del entrenamiento? Sin auditoría, la propuesta se convierte en un suelo fértil para el camuflaje y, de nuevo, la ambigüedad (un artista puede declarar que hizo algo con IA generativa o tratar de esconderlo para beneficiarse más).

Y ahora, llega Sony: a bombo y platillo no sólo dicen "detectamos", también "atribuyen". Y, encima, proponen dos soluciones: si el desarrollador coopera, se conectan al sistema del modelo base para calcular contribuciones; si no coopera, estiman comparando outputs con música existente. La propuesta parece seria, pero aquí, antes de analizarla, conviene preguntarse algo obvio: ¿a quién beneficiará este "supuesto" modelo de certificación?


¿Qué ha presentado Sony?

La división de inteligencia artificial de Sony Group dice tener una herramienta de detección/app (todavía sin naming) que puede determinar los porcentajes de contribución de las obras de creadores humanos dentro de los outputs generados por IA. El contexto disponible por ahora llega a través de una nota publicada en Nikkei Asia.

Por lo que se puede intuir por las explicaciones, se trata de una infraestructura confeccionada para que el principal problema, el "origen", deje de ser una discusión abstracta y pase a ser otro dato operativo administrable, facturable, etc.

¿Cómo funciona? 2 modos de atribución...

La compañía lo formula claramente: la tecnología es capaz de identificar qué música se usó en el aprendizaje y en la generación, incluso cuantificando contribuciones por obra (con ejemplos tipo "30% Beatles, 10% Queen"), y con un detalle crucial que determina todo lo demás. Si el desarrollador coopera, Sony obtiene datos conectándose al sistema del modelo base; si no coopera, el sistema "estima" comparando el output con música existente. La misma "presencia estimada" pero atajada de distinta forma.