El aprendizaje automático pronto podrá sustituir tanto el talento vocal de los humanos como su genio creativo
El 28 de enero de 2019, la revista Motherboard publicó una carta en la que el músico australiano Nick Cave respondía a un joven admirador. El chico preguntaba al artista si, según él, alguna vez la inteligencia artificial podría llegar a escribir buenas canciones. La respuesta de Cave fue tajante: “No”. Pero esa parece más la esperanza de un veterano que un lúcido juicio.
El ingeniero estadounidense Robert Moog, inventor del sintetizador, dijo: “cuando un pianista se sienta y interpreta una pieza virtuosa, en un sentido técnico está transmitiendo información a una máquina”. Sin embargo, aseguraba: “nunca me preocupó el hecho de que los sintetizadores reemplazarán a los músicos. Tienes que ser músico para componer con un sintetizador”.
La abdicación del artista en favor de las máquinas es un tema controvertido que pone en juego el concepto mismo de creatividad. La idea clásica de genialidad y el hecho de que el arte no pueda prescindir del talento humano están empezando a flaquear. En lo que respecta a la música, ya estamos rodeados de bandas sonoras de películas y videojuegos compuestas por ordenadores, que suenan sorprendentemente bien y, sobre todo, no se distinguen de las obras humanas.
El gigante tecnológico chino Baidu ha anunciado que necesita 3,7 segundos de escucha para clonar una voz. Hace un año, la herramienta de inteligencia artificial utilizada por la compañía, llamada Deep Voice, requería 30 minutos de audio para hacer lo mismo. La rapidez con la que se está desarrollando la tecnología para crear voces artificiales es impresionante.
El departamento dedicado a la inteligencia artificial de Facebook y la Universidad de Tel Aviv han desarrollado un método de deep learning que convierte directamente el audio de un cantante en la voz de otro. Los resultados del experimento se publicaron el mes pasado en un artículo titulado ‘Unsupervised Singing Voice Conversion’. Y abren perspectivas interesantes.
El aprendizaje automático permite convertir la voz original en otra, con sólo escuchar audios de las mismas durante 5-30 minutos y sin supervisión humana. Una red neuronal genera los elementos de audio correspondientes para dar forma a la voz sintetizada que se desea. Así como los vídeos deepfake cambian la cara de una persona por la de otra, con este sistema se puede elegir qué voz combinar con una melodía.
“Mientras que los métodos de corrección de tono ya existentes corrigen sólo cambios localizados, nuestro trabajo ofrece flexibilidad y altera otras características de la voz”, aseguran los responsables del proyecto, que se basó en dos bases de datos para alimentar al algoritmo. En un futuro un tanto siniestro, podríamos escuchar ‘Aserejé’ cantada por la voz ronca de Tom Waits.
La inteligencia artificial empieza a cosechar incluso éxitos comerciales
En 2017, la actriz estadounidense Taryn Southern, lanzada por el programa American Idol, debutó con el álbum I AM AI, totalmente compuesto, interpretado y producido por el software Amper. Sus vídeos acumulan ya millones de visualizaciones en YouTube.
Anteriormente, una startup londinense había desarrollado Aiva, el primer compositor virtual de música clásica y sinfónica regularmente inscrito en una sociedad para la gestión de los derechos de autor. Por cierto, habría que peguntarse quién es realmente el autor: ¿la máquina o el programador?
Artistas e ingenieros informáticos llevan experimentando con música generada por ordenadores desde los años cincuenta. De la primera composición algorítmica Illiac Suite de Lejaren Hiller o de Push Button Bertha de Martin Klein y Douglas Bolitho. Hoy, a través de modelos matemáticos inspirados en la estructura y el funcionamiento de las redes neuronales biológicas, los algoritmos se nutren de miles de composiciones para elaborar canciones muy parecidas a las humanas.
Las aplicaciones de la IA en este ámbito son potencialmente infinitas y también se extienden a la escritura de textos. Uno de los primeros artistas en pensar que una máquina podría participar en la composición de las letras de sus canciones fue David Bowie. En 1995, desarrolló Verbasizer, la versión digital de una forma de escritura aleatoria ya usada por Ziggy durante décadas, la llamada técnica de recortes
El visionario Brian Eno compuso varios discos de ‘música generativa’, creada por ordenadores. “Entrará en nuestra industria como cualquier otra música, debemos entender que las nuevas posibilidades superan los efectos destructivos”, dijo el inglés. En 2016, el sistema de IA desarrollado por Sony, Flow Machines, elaboró la canción Daddy’s Car, basada en la obra de los Beatles. Más tarde, el mismo sistema creó un álbum entero, Hello World, editado por el compositor francés Benoit Carré bajo el seudónimo de SKYGGE.
Hoy en día, los artistas ni siquiera tienen que estar presentes (o vivos) para tocar en un escenario, como demuestran los hologramas de Roy Orbison, Tupac, Michael Jackson y Gorillaz. Una de las estrellas más famosas de Japón, Hatsune Miku, es una cantante humanoide que no existe, pero que lleva años sacando éxitos y colaborando con artistas como Pharrell Williams
La inteligencia artificial tampoco tiene límites de género. Gracias a un algoritmo basado en el aprendizaje automático, Bob Sturm, profesor de informática, ha creado 100.000 canciones folk inspiradas en la música tradicional de Irlanda y Gran Bretaña. Coditany of Timeness es, en cambio, el primer álbum ‘black metal’ compuesto enteramente por una red neuronal artificial.
La IA tiene cabida incluso en el jazz, el reino de la improvisación. El pianista italiano Danilo Rea ha tocado en directo acompañado de un programa de inteligencia artificial capaz de aprender su estilo de improvisación y prever las siguientes notas. El sistema envía así impulsos a un ‘virtual ensamble’, que realiza la orquestación en tiempo real.
Ya sabía Pitágoras que “todo es número”, y el ritmo y la música no son más que matemáticas aplicadas. Desde la serie de Fibonacci, infinita sucesión de números naturales, cuya estructura ha sido empleada por Stravinsky o los Deep Purple, hasta la numerología de Bach y su obsesión por el ’14’ y el rígido dodecafonismo de Schoemberg, la matemática, madre de la informática, siempre ha desempeñado un papel primordial en la creación musical.
El 26 de noviembre de 1965, solo unos meses después de ‘traicionar’ a los puristas acústicos e inaugurar la epopeya del rock electrificado, Bob Dylan dijo de su música: “No sé cómo definirla, pero no es folk-rock, es un sonido matemático”. Un concepto fortalecido cuarenta años después, en su autobiografía, donde el Premio Nobel confesó: “Si naciera ahora no tocaría. Probablemente me dedicaría a las matemáticas: eso sí que me interesa”.
¿Las nuevas formas de inteligencia artificial realmente reemplazarán a los humanos? ¿O serán una herramienta para mejorar la creatividad y construir nuevas formas de expresión artística? El compositor francés Edgar Varese ya profetizó en 1922 que “el músico y el técnico tendrán que trabajar juntos”. Entre la inteligencia artificial que completa la inacabada sinfonía número 8 de Schubert o la inteligencia humana atrapada en el reggaeton, ¿qué elegir?
Publicado en La Vanguardia