Hatsune Miku tiene 16 años, su pelo es azul y sus discos son todo un éxito en Japón. Sin embargo, lo más peculiar de esta estrella del pop es que solo existe en internet. Además, las canciones que interpreta son compuestas por centenares de usuarios anónimos a través de un programa informático.

La voz de Hatsune Miku fue inventada hace un par de años en Barcelona. Entonces, el equipo de Xavier Serra, director del Grupo de Investigación en Tecnología Musical de la Universitat Pompeu Fabra (UPF), ultimó el diseño del programa Vocaloid, en colaboración con Yamaha. Si se introducen en el programa las notas de una melodía y unas palabras, el sistema produce una voz humanoide que interpreta la pieza. La empresa añadió al programa unos personajes animados capaces de simular la interpretación de la música.

"Algunos meses después de su salida al mercado, apareció en una red social japonesa un vídeo de uno de estos personajes, en concreto la cantante de pelo azul", recuerda Xavier Serra. "Enseguida se convirtió en un fenómeno: la gente empezó a componer canciones para ella y hasta a inventarle una biografía", explica.

COMPOSICION COLECTIVA El episodio de Hatsune Miku es un ejemplo de las potencialidades abiertas por el encuentro de la ingeniería del sonido con internet. "La creación de música en las redes sociales, lo que yo llamo música 3.0, es la última frontera de la aplicación de la tecnología a la música", explica Serra.

Según este investigador, casar arte y tecnología fue algo normal en siglos pasados. "Músicos como Bach o Beethoven estaban en estrecho contacto con tecnólogos que diseñaban sus órganos, sus violines o sus pianos", prosigue. Esta manera de operar entró en decadencia en el siglo XVII, según el investigador. Entonces, se estableció una tradición clásica tan prestigiosa que costó mucho modificarla. "Solo la llegada de las tecnologías electrónicas, en el siglo XX, modificó el escenario", dice.

La irrupción de la electrónica incidió sobre todo en la creación de sonidos y hasta voces humanas sintéticas. El equipo de la UPF sigue trabajando en esta línea. El último resultado es el diseño de un violín virtual, proyecto coordinado por el investigador Alfonso Pérez.

Durante su tesis doctoral, decenas de violinistas ejecutaron su repertorio de piezas en el laboratorio del grupo de investigación. Los instrumentos y arcos estaban preparados con sensores para que una cámara detectara sus movimientos y los asociara a los sonidos emitidos. De esta manera, durante 2009 Pérez desarrolló un programa capaz de reconocer esos gestos cuando se replicaban con un instrumento ficticio y de reproducir los sonidos correspondientes. "Este sistema captura lo que ni la partitura ni la grabación consiguen representar: el gesto del músico", explica Serra. Por esto, el programa podría ser de gran ayuda para los intérpretes.

EL GOOGLE DE LOS SONIDOS "La creación de nuevos instrumentos es uno de los cambios más revolucionarios en este campo", afirma Serra. El reactable, declarado mejor nuevo instrumento del 2007, se gestó también en el Grupo de Tecnología Musical de la UPF. Sin embargo, apunta a internet como la principal fuente de sorpresas para el futuro. "Con el proyecto Freesound estamos explorando este camino", señala. Se trata de un gran archivo de sonidos en internet que incluye desde la grabación de un Stradivarius hasta el ruido de una puerta que se cierra. Todo eso, colgado en internet por los propios usuarios.