NOTAS



30/08/2020

Por: Antonio Momblán

La pregunta del millón

Durante este tercer milenio, la tecnología va a cambiar de forma muy poderosa nuestras vidas. Exploración espacial, educación, finanzas, producción industrial, transporte, energía, sanidad, ocio… Pocas áreas se librarán de sufrir un significativo impacto debido al exponencial desarrollo tecnológico que ya estamos viviendo. El arte podría ser una de las actividades que se desarrollen al margen de esta realidad, debido a conceptos aparentemente ajenos a la tecnología, como son el alma o los sentimientos, los cuales aportan una esencia humana insustituible.

Es momento de preguntarnos, sin embargo, si en un futuro próximo la tecnología podrá alcanzar suficiente nivel de conciencia e inteligencia emocional como para crear arte y emocionarnos.

Si así fuera, ¿carecerían de valor artístico y emocional esas creaciones por el hecho de no ser humanas? Si consideramos que el arte principalmente se siente, ¿deberíamos también reflexionar sobre sus métodos creativos y darle mayor o menor valor en función de sus procesos creadores?

Quizás lo primero sea abordar la compleja pregunta de qué es el arte. Semánticamente, el arte es aquella actividad humana que emplea una amplia gama de recursos plásticos, lingüísticos o sonoros para expresar ideas, percepciones y sentimientos, provocando una respuesta emocional en el receptor.

Desde un punto de vista subjetivo, cada individuo tiene su propia definición, la cual responde a una serie de circunstancias particulares como puedan ser el entorno cultural, las propias experiencias personales o el contexto temporal... La amplitud de enfoques adoptados por parte de escuelas e historiadores de arte refleja la imposibilidad de dar una respuesta unitaria, pero sí resulta obvio que a los humanos nos une y nos hace únicos nuestra capacidad para emocionarnos con el arte.

Así, los artistas plasman personalidad y sentimientos en sus obras, conectando esos sentimientos con los del público receptor. Bajo este planteamiento, parece que el arte es una forma de comunicación reservada a los humanos, en tanto en cuanto tenemos capacidad para expresar sentimientos, compartirlos o hacerlos nuestros, en función del lugar que ocupemos en el proceso artístico.

Reflexionemos si es realmente así, particularmente en lo que a la música respecta.

Música y tecnología

No nos asustemos aún. Pese al rechazo de ciertos sectores empeñados en demonizar la ayuda que la tecnología proporciona, esta ha contribuido muy significativamente a que la música hoy sea lo que es en sus cuatro niveles esenciales: composición, interpretación, grabación y difusión. La imprenta ayudó a difundir la música durante el Renacimiento. A finales del siglo XIX, el fonógrafo y el gramófono permitieron grabar y reproducir sonidos. La radio contribuyó de forma muy valiosa a la difusión musical a principios del siglo XX. El micrófono y las grabaciones multipistas multiplicaron las capacidades de artistas y estudios de grabación. En las últimas décadas el crecimiento se ha acelerado: sintetizadores, ordenadores, tecnología MIDI, internet, streaming, sistemas digitales de edición de audio, Autotune... Como muestra del potencial de estas nuevas tecnologías, Billie Eilish alcanzó la cima de la industria musical mainstream al ganar 5 premios Grammy en 2019 con un disco grabado en su propia casa, con ayuda de su hermano y un home studio fuertemente equipado.

A este amplio listado hemos de añadir la Inteligencia Artificial. Una tecnología disruptiva que ya está cambiando el mundo en el que vivimos y que también cambiará la música tal y como la conocemos, así como otras disciplinas artísticas.

Uno de los pioneros en este campo es el compositor y científico norteamericano David Cope. Cope empezó en la década de los 80 a escribir programas informáticos con capacidad para componer piezas musicales muy primitivas, combinando notas de distinta duración y volumen que posteriormente eran interpretadas por instrumentos MIDI. El resultado, aunque satisfactorio para la época, carecía de ningún atisbo de humanidad. Posteriormente, Cope desarrollaría EMI, un software que empleaba algoritmos más complejos para deconstruir canciones a sus elementos más básicos para luego reordenarlos en piezas nuevas. El resultado era significativamente mejor, pero aún carente de alma.

David Cope, mostrando una partitura elaborada por EMI

La explosión llegaría poco después. Cope continuó trabajando en EMI, mejorándolo significativamente y especializándolo en componer piezas al estilo de Bach hasta el punto de que, siendo éstas interpretadas por pianistas profesionales, el público especializado fue incapaz de percibir que la composición no era humana, como tampoco fue capaz de distinguir las piezas de EMI de otras piezas compuestas por humanos. EMI había conseguido superar el Test de Turing, provocando sorpresa e indignación entre el público.

Más recientemente, la empresa Open IA, fundada por el preclaro Elon Musk y dedicada a desarrollar distintos tipos de IA con un enfoque marcadamente humanista, lanzó JukeBox, una red neuronal artificial de código abierto, muy similar a la empleada en EMI, que crea canciones replicando el estilo de artistas populares contemporáneos.

Su base de datos está formada por más de 1 millón de canciones, las cuales son desfragmentadas en metadatos para posteriormente ser reagrupados creando nuevas composiciones.

Es también muy significativa la historia de Hatsune Miku, antropomorfo del software de edición musical Vocaloid, creado por Yamaha Corporation en 2007. Vocaloid es un programa informático que sintetiza millones de fragmentos vocales almacenados en su base de datos para adaptarlos a una letra y una melodía, empleando distintos recursos para humanizar el resultado, como pueda ser la interpretación de distintos acentos o modulaciones en el vibrato o en el tono. Artistas de la talla de Mike Oldfield ya han hecho uso de él. Hatsune Miku lleva realizando exitosamente conciertos como cantante virtual a través de un holograma por todo el planeta desde 2009.

Hatsune Miku, música para las masas


La proliferación de programas de este tipo en los últimos años parece no tener límites. Endel crea música ambiente en función de nuestro ritmo cardíaco y de nuestras necesidades, bien queramos relajarnos o activarnos. Amadeus Code es un asistente para la composición musical que dispone de parámetros como felicidad, tristeza o agresividad para añadir a nuestras canciones. Amazon Deep Composer y Orb Composer también prometen facilitar la creación musical hasta límites nunca antes vistos.

Conviene resaltar que esto es solo una pequeña muestra de todo el potencial que exhibirá esta tecnología en los próximos años. Los desarrollos expuestos se basan en IA débil. Las inteligencias de este tipo únicamente pueden enfocarse en cuestiones relativamente sencillas a través de sistemas algorítmicos carentes de flexibilidad. Estas inteligencias son buenas automatizando tareas y analizando enormes cantidades de datos, pero únicamente siguen unas reglas específicas que el programador ha preparado para ellas. No aprenden por sí mismas, sólo son músculo computacional. Todos los ejemplos mencionados tienen en común redes neuronales sencillas que se alimentan de un flujo de datos de entrada (input) que es procesado a través de distintos algoritmos para generar un resultado musical (output).

Sin embargo, en un futuro cercano seremos capaces de desarrollar IA fuerte. Inteligencias basadas en redes neuronales complejas con una mayor capacidad cognitiva que tendrán aptitud para componer y ejecutar músicas más complejas, con total independencia creativa. Habrá que seguir alimentando un input, al igual que cualquier artista se nutre de muchas influencias, pero el procesamiento algorítmico se basará en el aprendizaje, no en la imitación, creando piezas totalmente originales con estilo propio.

Puede que incluso esta IA entienda a la perfección los complejos procesos bioquímicos emocionales que se producen en nuestro cerebro y sepa qué componer para hacernos sentir de determinada manera justo en el momento preciso.

Cuando ese momento de singularidad artística llegue, la realidad será distinta. Entrando en terreno puramente especulativo, puede que suponga el fin de muchos artistas, especialmente aquellos dedicados a músicas más comerciales donde lo que prima no es la expresión artística sino el enfoque mercantilista. Si las grandes discográficas siguen existiendo, ¿por qué habrían de firmar contratos millonarios con artistas y productores musicales que únicamente repiten fórmulas nada originales pero que saben que tendrán éxito si pueden desarrollar un software con mayor capacidad productiva y menor coste? El público mayoritario probablemente lo aceptaría, como ya está ocurriendo con Hatsune Miku.

En dirección opuesta, puede que esta singularidad artística ponga en valor otros estilos musicales, dotados de una expresividad humana difícilmente inalcanzable por parte de una IA, disparando su aceptación y reconocimiento.

Lo más probable y deseable es que creatividad humana y artificial coexistan simbióticamente. La tecnología no acabará con el alma de la música, sino que gradualmente se convertirá en un potenciador de la creatividad y una herramienta facilitadora de la composición, la grabación y la distribución.

El valle inquietante

El arte y sus distintos estilos artísticos han ido evolucionando a lo largo de nuestra historia según han ido cambiando los cánones de belleza y los ideales estéticos, las herramientas y las técnicas empleadas, así como las intenciones de los artistas. Dentro de este proceso evolutivo constante, muchos movimientos artísticos en su etapa más embrionaria atravesaron una fase inicial de rechazo casi generalizado de crítica, público y artistas. Así le ocurrieron al romanticismo, al cubismo o a la música rock. Superado este estado inicial de hostilidad, desprecio y vacío se inicia una transición más o menos dilatada que transita por la resistencia y la resignación para, finalmente, acabar en la aceptación.

Actualmente hay mucho desconocimiento e indefinición acerca de lo que la IA puede aportar a la música. También hay miedo y rechazo. Nos adentramos en el conocido como valle inquietante, una zona en la que como humanos nos sentimos amenazados por las distintas manifestaciones que esta tecnología pueda adoptar, especialmente cuando se difuminan los límites entre lo humano y lo artificial, haciendo difícilmente distinguible lo uno de lo otro. Nos incomoda el simple hecho de pensar que un sistema informático pueda estar programado para experimentar sentimientos, compartirlos a través de alguna manifestación artística y que ello provoque una respuesta emocional en nosotros. Nos inquieta no ser capaces de diferenciar una emoción programada de una natural, aunque nuestras emociones estén también programadas a través de complejos procesos bioquímicos.

¿Real?


Aún es pronto para saber qué lugar ocupará esta tecnología en el largo plazo, pero como individuos ya podemos empezar a posicionarnos al respecto. Mezclemos sentimientos con un enfoque más racional para decidir si aceptamos o rechazamos el papel de la IA en la música. Adoptemos la postura que adoptemos, el proceso transformador no se detendrá.