Lanzado en abril de 2018 para desarrollar servicios inteligentes para la producción profesional de eventos culturales, el proyecto LIPS (Live Interactive PMSE Services) ha ganado una importancia aún mayor debido a la Covid-19.
Una de las preguntas centrales del proyecto de investigación fue: ¿Qué necesitan los músicos cuando trabajan de forma remota para hacer música juntos desde diferentes ubicaciones? Además de investigar esta cuestión, el proyecto, que fue cofinanciado por el Ministerio Federal de Economía y Energía de Alemania (BMWi), mostró cómo la teoría podría ponerse en práctica durante su taller final en octubre con un impresionante concierto en vivo: Músicos de las universidades colaboradoras HMTM Hannover y HMT München tocaron juntos desde lugares separados.
Además de Sennheiser, el consorcio LIPS incluye ARRI, TVN MOBILE PRODUCTION, Smart Mobile Labs AG, Fraunhofer Heinrich Hertz Institut, Friedrich-Alexander Universität Nürnberg-Erlangen y Leibniz Universität Hannover. El Dr. Andreas Wilzeck de Sennheiser, quien presidió el consorcio, explicó el punto de partida del equipo: “Hay muchas declaraciones diferentes y contradictorias en la literatura sobre lo que se requiere para los eventos en red. El proyecto LIPS decidió dar un paso atrás y dar una nueva mirada a lo que realmente se necesita, creando así una base de datos sólida para cualquier producción en red”.
Obviamente, un aspecto (y obstáculo) importante para estas producciones remotas y en red es la latencia, y los socios del consorcio centraron sus esfuerzos en lograr cifras de latencia comparables a las de una sala estándar. En la configuración de su modelo, una red de fibra óptica jugó un papel importante, al igual que la tecnología inalámbrica 5G como una opción potencial para tender un puente hacia una infraestructura de red basada en cables. Otros aspectos incluyeron valor agregado para la audiencia, por ejemplo, ofreciendo asistencia auditiva en vivo con calidad premium.
La jam session demostró con eficacia el estado de la técnica actual. Las dos partes de la banda podían verse en una realidad inmersiva “en ventana” que se sentía como si sus compañeros músicos estuvieran tocando solo unos metros detrás de la pantalla grande que era parte de la configuración en cada lugar.
Andreas Wilzeck: “El concierto fue una impresionante demostración audiovisual de algunas de las tecnologías LIPS desarrolladas durante un lapso de dos años y medio. Los socios del consorcio ahora están considerando la futura implementación práctica de los hallazgos para respaldar eventos en vivo en red, un formato que permitirá a las bandas tocar juntas sin importar dónde se encuentren y permitirá producciones que antes no hubieran sido posibles”.
Haz clic aquí para obtener una entrevista con el Dr. Andreas Wilzeck.
Visita el sitio web de LIPS para obtener más información sobre el proyecto y sus resultados, además de un video completo del taller final.