Connect with us

software

Solid State Logic lanza plugin PlateVerb

Published

on

ssl plateverb 1200x675

Solid State Logic presenta PlateVerb, el primero de una nueva gama de plugins boutique que ofrecen el sonido de reverberaciones clásicas y contemporáneas en una interfaz optimizada estilo pedal de efectos.

Con un tiempo de caída de reverberación que va desde unos sutiles 100 milisegundos hasta unos colosales 3 segundos, PlateVerb fue creado para agregar de todo, desde un ambiente natural hasta efectos cavernosos a las producciones, con la calidad de sonido de SSL.

La reverberación de placas se utiliza ampliamente en la producción musical para agregar profundidad, dimensión y ambiente a una variedad de instrumentos y voces. PlateVerb emula con precisión el sonido distintivo de la reverberación de placa clásica, combinando dos algoritmos personalizados “diseñados por SSL” para reflexiones tempranas y reflexiones tardías, capturando las propiedades sonoras, mecánicas y de amortiguación de una reverberación de placa.

PlateVerb ofrece el clásico sonido de reverberación de placa al tiempo que incorpora funciones innovadoras como Colour Adjustment, Ducking con side-chain externo, y Freeze, lo que permite a los ingenieros marcar un sonido preciso o a los productores experimentar con efectos de reverberación. “Ya sea acústico o electrónico, clásico o contemporáneo, PlateVerb mejora los sonidos con la reverberación cálida, exuberante y suave que sólo un plato clásico puede proporcionar”, resalta SSL en su comunicado.

PlateVerb se agrega automáticamente a SSL Complete, que está disponible con cada plugin Slate Digital en la suscripción dual de acceso completo.

Además, está disponible a través del plan Rent To Own y para compra perpetua a través de SSL eStore.

Advertisement

Mira más en este video.

Joe Carrell Adding PlateVerb, Tape Echo and X-Delay Plug-ins to Guitars and Vocals

Música y Mercado es la revista de negocios en el segmento de audio profesional, la luz y los instrumentos musicales. Nuestro tema es animar a los empresarios a desarrollar la distribución y venta de equipos.

Audio

Powersoft simplifica conectividad con Dolby Atmos en su nueva versión de ArmoníaPlus 2.7.1

Published

on

powersoft dolby atmos 1200x675

La nueva versión del software ArmoníaPlus de Powersoft facilita la integración de sistemas de audio inmersivo Dolby Atmos en cines.

La actualización 2.7.1 incluye soporte para el protocolo Dolby Atmos Connect AES67, simplificando la conexión entre los amplificadores de las series Unica y Canali de Powersoft y el procesador Dolby Atmos.

Este avance reduce la complejidad de configuración de los sistemas de sonido 3D, agilizando el proceso para los usuarios del mercado cinematográfico. La versión 2.7.1 de ArmoníaPlus ofrece integración directa con dispositivos como el Dolby Atmos Cinema Processor CP950A y el Dolby Integrated Media Server IMS3000, eliminando la necesidad de dispositivos externos adicionales.

Principales características de la actualización

  • Integración de red: Tras ingresar la información de red del procesador Dolby Atmos, el sistema gestiona automáticamente todos los flujos de audio AES67 y los canales.
  • Conectividad directa: Los amplificadores Powersoft pueden conectarse directamente a los procesadores de Dolby sin necesidad de software adicional.
  • Simplificación del parcheo: El proceso de configuración es más rápido y eficiente.

Francesco Cionini, gerente de cuentas globales de Powersoft, señaló que este soporte de Dolby Atmos permite a Powersoft ofrecer una experiencia de audio inmersiva en los cines, reforzando su posición en la industria del audio de alta gama.

La versión ArmoníaPlus 2.7.1 ya está disponible para descargar en el sitio web de Powersoft.

Advertisement
Luthiers
Continue Reading

software

Software inmersivo para monitores in-ear, eMo IEM de Waves

Published

on

waves emo iem 1200x675

Waves Audio ha anunciado el eMo IEM, un plugin de mezcla inmersiva para monitores in-ear, diseñado para las consolas eMotion LV1.

Este software permite a los músicos experimentar un sonido de monitoreo en 360 grados con solo un clic, pensado en mejorar la claridad, apertura y comodidad de los monitores in-ear en espectáculos en vivo. “A diferencia de los sistemas tradicionales, no se necesita hardware externo costoso ni configuraciones complejas. Solo basta con seleccionar la opción “Immersive” en la salida de monitores del mezclador Waves eMotion LV1, y los artistas recibirán sonido inmersivo directamente en sus in-ears”, explica el comunicado oficial.

Los monitores in-ear estéreo tradicionales pueden sentirse limitados y poco naturales, lo que genera incomodidad en los músicos. Su representación espacial no refleja la experiencia auditiva humana de manera precisa, lo que puede afectar el rendimiento. El eMo IEM fue creado para solucionar esto proporcionando un entorno de sonido tridimensional más realista y cómodo para los artistas.

El software ofrece control de paneo en 360 grados, que puede gestionarse desde la consola eMotion LV1 o de manera remota, a través de las aplicaciones móviles MyMon y MyFOH de Waves. Esto permite que tanto los músicos como los ingenieros de sonido ajusten los elementos de la mezcla desde cualquier lugar del escenario o del recinto.

eMo IEM utiliza la tecnología Nx binaural de Waves, que recrea un entorno acústico inmersivo en auriculares y monitores in-ear. Estos algoritmos replican la experiencia auditiva natural de un entorno 3D, ofreciendo un monitoreo más detallado y cómodo que el estéreo convencional.

Noam Raz, Gerente General de Waves Live, comentó: “Estamos emocionados de presentar eMo IEM a nuestros usuarios. Nuestro compromiso es ofrecer soluciones innovadoras que mejoren la experiencia de sonido en vivo. Con eMo IEM, estamos haciendo que la mezcla inmersiva en monitores in-ear sea más accesible y fácil de usar, permitiendo a nuestros clientes enfocarse en brindar presentaciones de alto nivel”.

Advertisement

eMo IEM estará disponible como una actualización paga para los sistemas eMotion LV1. Detalles por anunciar próximamente.

Mira más en este video

eMo IEM – Immersive In-Ear Mixing for the Waves eMotion LV1 Mixer
IseEurope_Register
Continue Reading

software

IA en la música: 5 formas de utilizar la tecnología en tus producciones

Published

on

ia en la musica 1200x675

El modelado vocal y la restauración de audio son algunas herramientas que democratizan la producción musical.

Las aplicaciones de la Inteligencia Artificial en la música están empezando a explorarse, pero ya está claro que tienen el potencial de transformar profundamente la forma en que se crean, producen y consumen las canciones. Con el continuo avance de esta tecnología, las posibilidades son prácticamente ilimitadas, prometiendo una nueva era para la industria musical.

Según una investigación de Ditto Music, el 60% de los artistas independientes entrevistados ya utilizan IA en sus proyectos musicales. Moises, una aplicación de producción de música y audio mediante tecnología, tiene una base de aproximadamente 45 millones de usuarios, de los cuales más de 4,6 millones son brasileños.

La tecnología ha estado transformando la forma en que producimos canciones durante años, y aquí hay cinco formas en las que puedes usar IA para este propósito.

1. Separación de pistas

La separación de pistas divide una canción en sus partes, como voces e instrumentos individuales. Esto se hace analizando las frecuencias de los sonidos y utilizando modelos de aprendizaje profundo, como las redes neuronales convolucionales (CNN), que aprenden a reconocer diferentes patrones de sonido.

Esta técnica tiene varios usos. Se puede utilizar para remasterizar canciones antiguas, crear remezclas y nuevas versiones de canciones de DJ y productores, ayudar con el aprendizaje musical al permitir analizar cada parte de una canción por separado y permitir reemplazar pistas, desarrollar herramientas de karaoke eliminando voces, y facilitar la investigación y el análisis musical, proporcionando una visión más detallada de la composición de una canción.

Advertisement

2. “Clonación” de voz

El modelado vocal con IA replica la voz de una persona para generar nuevos discursos o canciones. En primer lugar, se recopilan grabaciones de alta calidad de la voz de la persona. Estas grabaciones se utilizan para entrenar un modelo de IA, que analiza características como el timbre, el ritmo y la entonación. Después del entrenamiento, la IA puede sintetizar voz basándose en el texto proporcionado, produciendo audio que suena como la persona original. Se pueden realizar ajustes y mejoras adicionales para mejorar la calidad. Esta característica es útil en áreas como publicidad, música, entretenimiento, actuación de voz, asistentes virtuales y otros.

“Cuando hablamos de modelado vocal, es importante garantizar que se respeten todos los derechos de la voz original. La persona que licencia tu voz debe recibir un pago adecuado por ella, en un contrato que favorezca a ambas partes”, explica Eddie Hsu, COO de Moises. La empresa, creada por brasileños, es líder en producción musical con IA y desarrolló Voice Studio, una herramienta con 50 voces disponibles para modelado vocal.

3. Remasterización de canciones antiguas

La IA también se puede utilizar para remasterizar grabaciones antiguas. Los algoritmos avanzados pueden limpiar el ruido, ajustar los niveles de audio e incluso mejorar la calidad del sonido de las grabaciones. Esto permite actualizar canciones grabadas hace décadas para cumplir con los estándares de audio modernos, como se hizo en el caso de la canción “Now and Then”, escrita por John Lennon en 1978 y completada por Paul McCartney y Ringo Starr en 2023, con la tecnología ayudando a incluir acordes de George Harrison.

En Brasil, la cantante Luana Carvalho logró una hazaña similar a la de la banda británica al asociarse con su madre, Beth Carvalho, ya fallecida, en la canción “Visual”, del álbum Baile de Máscara. Se tomó una muestra de la voz de la famosa cantante de samba de una canción de 1978, se editó e incorporó a la canción de 2020, haciendo que las dos cantaran juntas.

4. Creación de instrumentos virtuales

Los instrumentos virtuales controlados por IA están ganando popularidad. Utilizan algoritmos para emular el sonido de instrumentos reales con gran precisión. Además, pueden generar nuevos timbres y sonidos que no serían posibles con los instrumentos tradicionales. Los plugins de Spitfire Audio y Native Instruments están a la vanguardia de esta tecnología y ofrecen instrumentos virtuales que se utilizan ampliamente en la industria de la música.

Advertisement

5. Personalización de experiencias musicales

Los servicios de streaming como Spotify y Apple Music utilizan algoritmos de inteligencia artificial para analizar los hábitos de escucha de los usuarios y sugerir canciones que podrían ser de tu interés. Además, la IA se puede utilizar para crear bandas sonoras personalizadas para diferentes entornos o actividades, ajustando el tempo y el estilo de la música en tiempo real según el contexto del usuario.

IseEurope_Register
Continue Reading
Advertisement

Categorías

Facebook

Advertisement

Seleccionado