IA en el rock: ¿herramienta, provocación o nuevo género?
En el verano de 2025, el algoritmo de Spotify empezó a recomendar a sus usuarios un grupo que nadie había escuchado antes. The Velvet Sundown: fotos retro borrosas de sus supuestos «miembros», títulos de canciones como «Dust on the Wind», un sonido pulido con reminiscencias del rock californiano de los 70. Más de un millón de oyentes mensuales. Sin conciertos, sin entrevistas, sin presencia alguna en redes sociales.
El descubrimiento llegó pronto. Usuarios de Reddit empezaron a hacer preguntas cuando las canciones del grupo aparecían en sus listas de Discover Weekly, pero no había manera de encontrar casi nada sobre ellos en internet. Finalmente, los propios creadores lo confirmaron: The Velvet Sundown era «un proyecto musical sintético dirigido por humanos, creado, interpretado y visualizado con inteligencia artificial». «No es un truco, es un espejo», escribieron.
El espejo resultó ser muy incómodo.
El problema no es la calidad, sino la invisibilidad
Lo más inquietante del caso The Velvet Sundown no es que la música fuera generada por IA. Es que los oyentes no se dieron cuenta. El algoritmo de recomendaciones no distingue entre un artista real y un programa — trabaja con las características acústicas del audio. El sistema está diseñado para encontrar «lo similar», y le da exactamente igual quién lo haya producido.
Plataformas como Suno y Udio generan actualmente más de diez canciones por segundo. En el servicio de streaming francés Deezer se suben más de 20.000 pistas de IA al día. Esto ya no es un experimento — es un proceso industrial a pleno rendimiento.
Dos polos: miedo e instrumentalización
La reacción del mundo musical ante lo que está ocurriendo se ha dividido en dos bandos, y la fractura no pasa por la edad ni por el género — sino por la actitud ante la propia pregunta de la autoría.
Las grandes discográficas — Sony Music, Universal y Warner — interpusieron demandas contra Suno y Udio, acusándolos de vulnerar masivamente los derechos de autor. Miles de músicos se pronunciaron en contra del uso de creaciones humanas para entrenar IA sin permiso. Del otro lado, quienes ven en las nuevas herramientas no una amenaza, sino una ampliación de posibilidades.
En este sentido resulta significativo el proyecto FOTKAI — un medio español sobre música en vivo que experimenta en paralelo con su propio contenido musical: las letras las escribe una persona, mientras que la música y la voz se crean con ayuda de IA. El rock, el alternative, el metal y la electrónica no funcionan aquí como etiquetas de género, sino como material para el experimento. El resultado es sorprendentemente vivo, inquietante en algunos momentos, y no se parece en nada a ese «todo igual y vacío» que solemos asociar con la generación automática. Vale la pena escucharlo al menos por curiosidad — para responder uno mismo a la pregunta de si se nota la diferencia.
Qué viene después — y por qué no es tan aterrador
La historia de The Velvet Sundown terminó de manera predecible: su audiencia cayó rápidamente de un millón a menos de doscientos mil oyentes. La música sin un ser humano detrás resultó ser efímera — no porque sonara mal, sino porque el oyente no tenía nada a lo que aferrarse. El rock siempre se ha sostenido sobre las personas. Sobre una voz que tiene una historia detrás.
Pero es precisamente ahí donde se encuentra el argumento principal a favor de la IA — no en lugar del ser humano, sino junto a él. Del mismo modo en que la guitarra eléctrica en su momento parecía una amenaza para la acústica, y el sintetizador una amenaza para los instrumentos en vivo, hoy la IA se convierte en parte del arsenal creativo. No un sustituto del artista, sino un nuevo tipo de instrumento — más potente y más imprevisible que todo lo anterior.
La diferencia está en un solo punto: este instrumento sabe imitar la autoría. Y es precisamente por eso que en manos de alguien que tiene algo que decir se vuelve genuinamente interesante. En manos de un algoritmo lanzado para generar tráfico — simplemente ruido. Lo que será el rock con IA no depende de la tecnología. Depende de quién la tome en sus manos primero.
















