Music Business

Inteligencia artificial en la música: recortes, hechos y análisis

Published

on

En este artículo consideramos el impacto de la IA (Inteligencia Artificial) en el proceso creativo y técnico de la producción musical.

Advertisement

Una industria en particular, la postproducción de audio, está experimentando cambios más rápidos debido a la IA. Esto significa grandes cambios, ahora y en el futuro, para las capacidades, el empleo y el trabajo. Abundan los informes sobre el papel de la automatización de las máquinas en la inestabilidad ocupacional (específicamente, la reducción del empleo humano). Este artículo muestra por temas cómo este proceso está comenzando a cambiar la cadena de producción musical y también las nuevas tecnologías que pueden sustituir o incrementar el potencial humano en este ámbito.

1 – ¿Qué es la inteligencia artificial?

La inteligencia artificial (IA) es una amplia rama de la informática que se ocupa de construir máquinas y algoritmos inteligentes capaces de realizar tareas que normalmente requieren inteligencia humana. Si bien la IA es una ciencia interdisciplinaria con múltiples enfoques, los avances en el aprendizaje automático y el aprendizaje profundo, en particular, están creando un cambio de paradigma en prácticamente todos los sectores de la industria tecnológica.

La inteligencia artificial permite a las máquinas modelar, o incluso mejorar, las capacidades de la mente humana. Y desde el desarrollo de vehículos autónomos hasta la proliferación de herramientas de IA generativa como ChatGPT y Google Bard, la IA se está convirtiendo cada vez más parte de la vida cotidiana de la gente común y de los profesionales por igual.

2 – Las primeras aplicaciones de la IA en audio

Los primeros intentos de crear música generada por computadora aparecieron en la década de 1950, centrándose en la creación de música algorítmica. La llegada de la música generada por computadora por parte de pioneros, como Alan Turing con la computadora Manchester Mark II, abrió múltiples posibilidades de investigación en inteligencia musical donde los sistemas computacionales podían reconocer, crear y analizar música.

                                             

Turing ayudó a crear una de las primeras grabaciones musicales por computadora, reutilizando señales de sonido en una de las primeras computadoras de Manchester. Foto de la Biblioteca de imágenes de Ciencia y Sociedad.

Advertisement

Específicamente, los primeros experimentos se centraron en la composición algorítmica (una computadora que utiliza conjuntos formales de reglas para crear música). En 1957 vimos la primera obra compuesta exclusivamente por inteligencia artificial: — Illiac Suite for String Quartet.

Lejaren Hiller y Leonard Isaacson. Foto del Illinois Distributed Museum

Mediante el uso de modelos y algoritmos matemáticos, Lejaren Hiller (un compositor estadounidense) y Leonard Isaacson (un compositor y matemático estadounidense) crearon Illiac Suite, la primera pieza original compuesta por una computadora. Para lograr esta hazaña, utilizaron un algoritmo de Monte Carlo que generaba números aleatorios que correspondían a ciertas características musicales como el tono o el ritmo. Utilizando un conjunto de restricciones, estas características aleatorias se limitaron a elementos que serían musicalmente “geniales” según lo definido por las reglas de la teoría musical tradicional, las probabilidades estadísticas (como las cadenas de Markov) y la imaginación de los dos compositores.

Otro innovador en este campo fue Iannis Xenakis, compositor e ingeniero, que utilizó probabilidades estocásticas para ayudar en la creación de su música. Un proceso estocástico es un mecanismo con distribuciones de probabilidad aleatorias que no se pueden predecir pero sí analizar estadísticamente. A principios de la década de 1960, utilizó computadoras y el lenguaje FORTRAN para entrelazar múltiples funciones de probabilidad para determinar la estructura general y otros parámetros (como el tono y la dinámica) de una composición.

   

Xenakis modeló su música como si estuviera modelando un experimento científico. Cada instrumento era como una molécula y pasaba por su propio proceso estocástico y aleatorio para determinar su comportamiento (la frecuencia del tono y la velocidad de ciertas notas). Su trabajo introdujo nuevos métodos para crear sonido, pero también sirvió como uno de los primeros ejemplos de IA funcionando como una herramienta de análisis complementaria en lugar de solo una herramienta de composición. La forma en que Xenakis creó sus melodías y orquestaciones para diferentes instrumentos se inspiró en los espacios sonoros modelados por el proceso estocástico.

Advertisement

En 1965, el inventor Ray Kurzweil estrenó una pieza para piano creada por una computadora capaz de reconocer patrones en varias composiciones. Luego, la computadora pudo analizar y utilizar estos patrones para crear nuevas melodías. La computadora debutó en el programa de preguntas I’ve Got a Secret  y dejó a los presentadores perplejos hasta que la estrella de cine Henry Morgan adivinó el secreto de Ray.

En 1997, un programa de inteligencia artificial llamado  Experiments in Musical Intelligence (EMI) pareció superar a un compositor humano al componer una pieza musical para imitar el estilo de Bach. (Fuente: Wikipedia)

3 – Período de transición – Modelización generativa (1980 – 1990)

En las décadas previas a la era moderna de la música, el enfoque pasó de la generación algorítmica más simple al modelado generativo. Otto Laske, un destacado investigador en el campo del audio, describe este cambio como la diferencia entre un robot musical y una inteligencia musical.

Un robot musical se parece más a los primeros experimentos de los años 1950 y 1960: puede reconocer patrones, tiene una gramática para la música y un sentido general de resolución de problemas, pero logra sus objetivos con métodos bastante directos y contundentes. Por otro lado, la inteligencia musical reemplaza el enfoque de búsqueda de fuerza bruta del robot por un sistema de comprensión basado en el conocimiento con su propia conciencia de cómo pueden funcionar los elementos musicales. Esta tendencia de los sistemas de IA a construir su propia comprensión autosuficiente de los elementos musicales fue la base de la inteligencia musical más sofisticada que vemos hoy. Otros desarrollos en este período continuaron explorando los límites de la creatividad computacional. Por ejemplo, Robert Rowe creó un sistema en el que una máquina puede inferir el compás, el tempo y la duración de las notas mientras alguien toca libremente un teclado. También en 1995, Imagination Engines entrenó una red neuronal con melodías populares, lo que permitió el aprendizaje por refuerzo, lo que llevó a la generación de más de 10.000 nuevos coros musicales. El aprendizaje por refuerzo implica entrenar una red neuronal para lograr un objetivo recompensando/castigando al modelo en función de las decisiones que toma para lograr un objetivo específico.

4 – Período actual (década de 2000 – presente)

Durante la década de 2010, fuimos testigos del surgimiento de algoritmos de aprendizaje automático inteligentes y rápidos y su integración gradual en el software de producción musical. Ahora, los cerebros artificiales de innumerables complementos, plataformas, suites de masterización virtual (https://www.landr.com)  e incluso compositores están detrás del volante como impulsores conscientes de las herramientas creativas actuales.

Advertisement

Veamos algunas de estas aplicaciones inteligentes a continuación:

Síntesis vocal avanzada: los clones vocales deepfake de artistas famosos han provocado sentimientos encontrados en la industria musical. Sin embargo, en el fondo, los mismos avances están ayudando a impulsar la síntesis vocal a nuevos territorios.

Intentar construir una voz humana con una computadora no es nada nuevo. Un sintetizador de canto como el VOCALOID6 tiene una historia que se remonta a la década de 2000, y en su versión más reciente ha comenzado a utilizar IA para mejorar el instrumento de voz sintetizado. Puedes escribir las letras, seleccionar el tono y ajustar el acento. Podrás cantar en japonés e inglés y, a partir de 2023, también en chino.

Al igual que cualquier instrumento de software, como un piano virtual, intenta recrear la realidad. Pero a diferencia de cómo se crea la música deepfake, la compañía trabajó con cantantes reales para desarrollar varios perfiles vocales.

Si estás buscando una alternativa más juvenil, prueba el Synthesizer V de Dreamtonics. La empresa se fundó en 2019, justo cuando la tecnología de inteligencia artificial comenzaba a acelerarse y alcanzar un estatus generalizado, y los resultados son impresionantes.

Concebido por primera vez en 2001, Continuator era un software de aprendizaje automático. Reunió datos sobre cómo tocaban los músicos y aprendió a complementarlos inteligentemente, improvisando en tiempo real utilizando los datos que recopiló sobre cómo tocaban como modelo. Su inventor, François Patchet, sería un actor importante en el desarrollo de Spotify.

Entre las primeras aplicaciones importantes de IA en plugins de mezcla de música, Adaptiverb de Zynaptiq inspecciona la fuente de audio y, utilizando el resintetizador Bionic Sustain, crea la cola de reverberación perfecta y personalizada a través de cientos de osciladores en red. Ha sentado un nuevo precedente al resaltar los beneficios prácticos del aprendizaje automático en toda la producción.

Tecnología de asistencia de audio iZotope (2016)

Advertisement

iZotope: Una empresa que ha adoptado el potencial de ahorro de tiempo de la IA como pocas, la útil tecnología de audio de asistencia de iZotope es la salsa secreta detrás de productos emblemáticos como RX que mejora el audio y Ozone que mejora el sonido. Al analizar el audio de forma inteligente y aplicar correcciones rápidas, es probable que iZotope haya ahorrado colectivamente a los profesionales preciosos años en el estudio.

5 – Cómo la IA está cambiando la tecnología de audio

“Una vez que el método de pensamiento automático hubiera comenzado, no tomaría mucho tiempo superar nuestros débiles poderes. Podrían hablar entre ellos para agudizar su inteligencia. Por lo tanto, en algún momento debemos esperar que las máquinas tomen el control”. Justo como la sombría predicción que predijo el padre de la inteligencia artificial, el genio informático Alan Turing. Aunque afortunadamente todavía no nos enfrentamos a un punto final tan aterrador, la noción de Turing de un cibercerebro controlado por una máquina, que agudiza continuamente sus sentidos a través del diálogo y el refinamiento constantes, es un concepto que está en el corazón de la aplicación comercial de la inteligencia artificial.

En nuestra industria, podemos ver esto quizás más claramente que nadie. Actualmente hay disponibles multitud de herramientas de software basadas en IA que destacan en tareas (como edición de frecuencias, separación de mezclas, restauración de audio y masterización) que a operadores humanos altamente capacitados les llevaría mucho, mucho más tiempo realizar. El refinamiento constante y las rutinas de aprendizaje adaptativo permiten mejorar las rutas de software basadas en IA. Aunque el término “inteligencia artificial” se suele atribuir a cualquier software que se base en algoritmos para cumplir sus criterios, en realidad existe un amplio espectro de definiciones. Están aquellos que simplemente desencadenan una serie de acciones predeterminadas que sus creadores han creado cuidadosamente y están esos genios virtuales tipo HAL (iZotope RX 9 , Zynaptiq Adaptiverb, por ejemplo) que pueden inspeccionar una forma de onda, diagnosticar con precisión lo que necesita ser hecho para darle más claridad.

Melissa Misicka, directora de Brand Marketing de iZotope, nos explica que utilizar la inteligencia artificial para este fin siempre ha sido una ambición de la empresa: “Uno de nuestros objetivos como empresa es encontrar formas de eliminar las tareas de producción de audio que consumen más tiempo para nuestros usuarios para que puedan centrarse en su visión creativa. Introducir tecnología de asistencia, que puede analizar inteligentemente su audio y proporcionar puntos de partida recomendados, parecía una manera perfecta de hacerlo”.

No se trata sólo de acelerar los procesos que consumen mucho tiempo. Muchos ven la IA como un método para realizar tareas que los humanos no pueden realizar. iZotope explica cómo se puso en práctica esta idea. “Un ejemplo es la separación de fuentes para la limpieza del habla”. Misicka nos dice: “Nuestros módulos como Dialogue Isolate o De-rustle se basan en él para atenuar sonidos no deseados como pasos, canto de pájaros o el susurro de un micrófono escondido en la ropa. Reparar estos ruidos manualmente sería muy laborioso, ya que los ruidos cambian con el tiempo y se superponen con el habla”.

Advertisement

“Otro ejemplo es la síntesis inteligente de sonidos sustitutivos”. Melissa continúa: “Cuando el habla proviene de una llamada telefónica, su espectro de frecuencia se limita a 4 kHz, lo que da como resultado un sonido apagado característico. El módulo Spectral Recovery de RX utiliza el aprendizaje automático para recrear la banda de frecuencia superior faltante con contenido sintetizado realista para mejorar la calidad del habla. Las formas manuales de síntesis de alta frecuencia incluirían herramientas como un excitador, pero la calidad y plausibilidad del contenido sintetizado no se acercaría a los resultados del aprendizaje de la IA”.

Sonible

La gama de plugins de Sonible incluye “pure:comp”, “pure:verb” y “pure:limit”, entre muchos otros. Diseñados pensando en los creadores, estos plugins ofrecen una mejora del sonido de nivel profesional utilizando tecnologías de vanguardia. El conjunto de controles simplificado permite modelar el sonido sin esfuerzo, con potentes opciones para ajustar la mezcla.

“Pure:limit” equilibra la dinámica y encuentra el nivel perfecto para tu mezcla con solo tocar un botón. Mientras tanto, “pure:comp” y “pure:verb” ofrecen procesamiento impulsado por IA y perfiles característicos, que se parametrizan automáticamente para obtener resultados de alta calidad.

RoEx es una plataforma web donde productores, músicos y podcasters pueden cargar su audio, proporcionar algunas configuraciones simples y obtener un producto final pulido y con sonido profesional en cuestión de minutos. La tecnología innovadora se encarga de todo el trabajo mundano, permitiéndole concentrarse en ser creativo. Una vez que la IA haya terminado de mezclar, su pista estará lista para su distribución de inmediato. Sin tediosos trabajos de postproducción ni revisiones interminables. Los servicios de mezcla de IA también se proporcionan como una API rápida y escalable. Esto significa que puede integrar fácilmente la tecnología RoEx en su flujo de trabajo existente, lo que le permitirá optimizar aún más su proceso de producción.

Una de las aplicaciones más beneficiosas de la IA para los músicos domésticos ha sido la rápida disponibilidad de servicios de masterización basados ​​en algoritmos. Tomemos como ejemplo LANDR. El software revelador de este servicio de suscripción se basa en una mina de inteligencia extraída de 20 millones de pistas masterizadas. Utiliza esta información para calcular cómo aplica el aumento de frecuencia personalizado y el brillo auditivo a su música. “Cuando LANDR  se lanzó por primera vez en 2014, era la primera solución de este tipo para la masterización de IA basada en la nube”, cuenta Patrick Bourget, director de producto de LANDR. “En 2016, la escena comenzó a ver alternativas similares, pero mucho menos refinadas, surgiendo en el mercado”.

Advertisement

6 –   Inteligencia artificial vs Humanidade

Con la prevalencia cotidiana de plataformas como LANDR, Patrick Bourget parece una buena persona para preguntar cómo ve la evolución de esta dinámica humano/máquina en el futuro, específicamente en el dominio de la masterización: “Dado el rápido ritmo de creación y los presupuestos a menudo ajustados de los productores musicales de todo el mundo, creemos que siempre habrá espacio para la masterización mediante IA y los ingenieros de masterización”. Pero más allá de la masterización, la sensación general es que la IA está aquí para complementar, no reemplazar, el proceso humano en la música y el audio.

iZotope se hace eco de este punto fundamental: que las aplicaciones de IA más exitosas hasta la fecha son aquellas que ayudan a los creativos y profesionales a alcanzar sus objetivos, no aquellas que buscan suplantarlos. “A menudo pensamos en nuestra tecnología de asistencia como, literalmente, un asistente de estudio que puede dar el primer paso en las reparaciones o mezclar por usted mientras toma café”, Melissa explica. “Reforzamos que la misión de las herramientas de asistencia de iZotope no es sustituir la experiencia profesional, sino formar a quienes aún están aprendiendo, sugiriendo próximos pasos, y ayudar a quienes tienen más experiencia, llevándolos a un punto de partida. más rápidamente.”

Si bien es indiscutible que la inteligencia artificial seguirá penetrando nuestra vida diaria en muchos niveles, es claramente evidente que, en lugar de retroceder ante su insondable potencial, los músicos y productores tienen más que ganar que perder con sus capacidades en constante desarrollo.

7 –   Las ventajas de la mezcla y la masterización con IA

🟡 Consistencia: la mezcla y masterización con IA puede ayudarte a garantizar la coherencia en varias pistas, haciendo que suenen como si estuvieran juntas y también una mezcla con más transparencia y definición.

🟡 Ahorro de tiempo: la mezcla y masterización con IA puede ahorrar tiempo al automatizar todo el proceso de masterización. En lugar de dominar manualmente cada pista, las herramientas de inteligencia artificial pueden analizar y mejorar varias pistas en cuestión de minutos.

Advertisement

🟡 Costo-beneficio: las herramientas de mezcla y masterización de IA son mucho más económicas que contratar a un profesional. Elimina la necesidad de pagar por el tiempo de estudio y los servicios de un ingeniero de mezcla/masterización.

🟡 Accesibilidad: el software de IA es accesible para todos, independientemente de su nivel de experiencia en producción musical. El proceso es ágil y fácil de usar, lo que te permite concentrarte en los aspectos creativos de tu música sin atascarte en los detalles técnicos.

8 –   Las desventajas de la mezcla y la masterización con IA

🟡 Masterización instantánea en línea: Landr, eMastered y AI Mastering

LandreMastered y AI Mastering  son servicios que masterizan pistas al instante y todo lo que tienes que hacer es cargar la pista. Es bastante barato, oscila entre $ 5 y $ 39 por mes, y es rápido. (Si a esto le sumamos sitios web bellamente diseñados, obtendrá toda la atención de los millennials). Hay algunos problemas con estos servicios: ofrecen opciones de edición mínimas y simplemente no suenan tan bien como la masterización humana. Estás atascado con la masterización que te dan, no hay opciones de ajuste disponibles. Cuando se trata de comparaciones lado a lado con el reino humano, Landr y sus contemporáneos simplemente no se destacan.

En pocas palabras: Landr, eMastered y AI Mastering son excelentes si tienes un presupuesto ajustado o poco tiempo, pero definitivamente no son tus mejores opciones. Definitivamente sugeriría aprender a masterizar tus propias pistas o enviarlas a un profesional.

Advertisement

🟡 Plugins híbridos de IA/manuales: iZotope Neutron 3 Mixing Assistant e Ozone 9 Mastering Assistant:

Las últimas versiones de IZotope de sus aclamados complementos Neutron y Ozone ahora incluyen algunos elementos de IA. Neutron 3 cuenta con Mixing and Balance Assistant y el Ozone 9 ahora tiene un Mastering Assistant. Cada una de estas herramientas del Asistente escucha tu música en tiempo real (aún sin carga sin conexión) y equilibra, mezcla o masteriza tu música automáticamente. Cada uno de ellos tiene ajustes preestablecidos entre los que puedes elegir y algunas formas de personalizar el resultado. Estas herramientas son bastante útiles, pero no deberían ser el final.

Estos asistentes de mezcla y masterización funcionan bien como punto de partida o si simplemente quieres probar algo diferente. Los asistentes eliminan gran parte del trabajo pesado, pero aún necesitan un oído entrenado para captar el sonido correcto. Además, definitivamente puedo prever algunos casos en los que intentar que el asistente de IA identifique los instrumentos correctamente podría ser más problemático de lo que vale la pena. Sin embargo, si va a seguir la ruta de la IA, estas herramientas son definitivamente la mejor manera de hacerlo.

En resumen, el software de mezcla y masterización con IA puede ahorrar tiempo y dinero, y esto es especialmente importante para los productores que recién están comenzando y tienen recursos limitados. Sin embargo, existen algunas desventajas reales de dominarlo que deben considerarse antes de subirse al tren de la IA.

Éstas son algunas de las ventajas de la masterización manual analógica:

Advertisement

1 – En masterización analógica: equipos de alta calidad que incorporarán tu firma sonora a tu audio (aunque sea solo um summing).

2 – La experiencia dedicada del profesional de años de servicios técnicos en esta área.

3 – Posible revisión con sugerencias para tu mezcla.

4 – Ese toque humano final que le dará más vida y calidez a tu música.

9 –    IA y derechos de autor 

¿A quién pertenece la música generada por la inteligencia artificial? Y si el software de inteligencia artificial puede inspirarse en la música existente y generar música nueva de un estilo similar, ¿los derechos de autor se convierten en un área gris?

Advertisement

Como toda nueva área de la tecnología, la IA promete generar mucho trabajo para los abogados. Cliff Fluet, de la consultora de medios Eleven, insiste: “No es nada gris. Lo que pasa es que a la gente no le gusta escuchar la respuesta, dependiendo de lo que estén haciendo. ¡Pero usted hizo la pregunta clave y hay muchos abogados especulando al respecto!“ Ésa es una pregunta tan buena o tan mala como preguntar quién es el dueño de una película. La verdadera respuesta es que depende de cómo lo hiciste, cuánto es tuyo y cuánto pertenece a otra persona. ¿En qué medida recibe aportaciones de actores, escenógrafos, terceros, etc.? ¿Hasta qué punto has creado algo completamente original? La respuesta es tan simple y sofisticada como eso. Cada uno depende de cómo se procesan, de cómo se toman sus algoritmos, de cómo se toman sus decisiones. Si eres realmente un buen abogado, la respuesta es muy, muy sencilla, siempre y cuando realmente comprendas la profundidad de los procesos. Dado que la IA para la producción musical es una tecnología emergente, ¿es ésta un área legalmente probada?

Cliff Fluet: “Yo diría que lo es y no lo es. La ley de derechos de autor de la música se basa en una tecnología muy poco confiable llamada músicos y cerebro humano. Hay gente que pregunta: ‘¿Qué pasa si una máquina replica algo más?’ – y es como, ‘Bueno, ¿qué pasa si un artista replica algo más?’, que es lo que sucede todos los días en la industria de la música. ¿Hay preguntas reales sobre si alguien realmente escuchó algo o no? ¿Alguien realmente ha adaptado algo? La ley no es diferente cuando se trata de una máquina o de un ser humano. La diferencia entre un ser humano y una máquina es que con una máquina tienes pruebas absolutas”.

Cliff señala casos legales pasados ​​en los que “el jurado tiene que sentarse y tratar de determinar si alguien escuchó algo, adaptó algo o hizo algo. Con una máquina no tienes que depender de tu memoria, literalmente puedes ver todas las notas allí, así que creo que es más fácil que difícil. Averiguar si un humano robó o no una composición, si es de su propiedad o no, o si la compartió o no, es mucho, mucho más complejo que una máquina. Como mínimo, los avances tecnológicos pueden ayudar”.

10 –    El futuro de la música con la IA

Es probable que en el futuro se produzca una explosión de nueva música creada por personas que antes no tenían los medios para hacerlo, gracias a herramientas basadas en inteligencia artificial. Del mismo modo, los músicos y productores probablemente encontrarán más tiempo para ser creativos y hacer música de nuevas formas, dejando que la IA gestione tareas funcionales repetitivas. Es probable que la creación musical se convierta en parte de las interacciones en línea de las personas, y los consumidores creen y compartan nueva música a través de plataformas de redes sociales.

La IA para la producción y el consumo de música es un área enorme, y este artículo sólo puede ofrecer una muestra de la investigación y el desarrollo en curso de los servicios musicales de IA. Como dice Cliff Fluet, “IA se convertirá en un término tan útil como hablar de ‘Internet’. Hace veinte años, si intentara describir Internet, pensaría que era sólo una plataforma, y ​​en realidad fue el primer paso hacia algo enorme”.

Advertisement

Las ricas oportunidades en torno a la IA plantean muchas preguntas y hasta ahora solo tenemos unas pocas respuestas. Muchos avances están en sus inicios y algunos plazos siguen siendo inciertos. Lo que es seguro es que la IA está recibiendo mucha atención de los principales sellos discográficos, los artistas número uno, las incubadoras de empresas y los desarrolladores de software de vanguardia, por lo que se avecinan cambios. Muchos colaboradores estiman que veremos un cambio en la producción y el consumo de música en los próximos cinco a siete años. La adopción generalizada se reducirá a la facilidad con la que podamos interactuar con nuestras herramientas de inteligencia artificial y la calidad de los resultados finales, que avanzan constantemente. Como ocurre con cualquier tecnología emergente, claramente podemos elegir cómo usarla y cómo queremos usarla, y puede ser el mercado el que dé forma a la dirección del software de IA. Todos nuestros colaboradores quisieron enfatizar que la IA no reemplazará a los artistas ni a los productores. Paradójicamente, cuanto más utilizamos la IA en la música, más podemos unir a las personas.

Pascal Pilon, de LANDR

Él señala que “la industria musical está rezagada en muchos aspectos. Vea el mercado financiero y cómo las nuevas empresas de todo el mundo buscan financiación para desarrollar y comercializar productos con la ayuda de socios de capital de riesgo. En la industria musical, este papel lo ha desempeñado históricamente la compañía discográfica, pero cerrar un contrato discográfico todavía es muy rudimentario. Creo que el modelo de financiación de la industria musical se basará cada vez más en datos y será más competitivo. Esto atraerá más capital de un conjunto más amplio de inversores, que seguirán involucrando a sellos discográficos, pero también a un conjunto más amplio de inversores ángeles, pequeños y grandes”.

Pascal predice que los sellos discográficos seguirán necesitando invertir mucho en talento para promover la música. “Incluso si existe IA, todavía se necesitará gente para dar visibilidad a los artistas. Piense en el marketing: lo más raro que se consigue son oyentes en el espacio musical que gastan. Su capacidad para lograr que la gente lo escuche aún requerirá un elenco de colaboradores desde una perspectiva de marketing. Nuevamente, es muy similar a la industria cinematográfica. Vea lo importante que es el presupuesto de producción; sí, son enormes, pero piense en el presupuesto comercial, que es aún mayor. Para captar la atención de la gente, necesitarás invertir en canales para lograrlo; piensa en Facebook. Si puedes llevar viralidad a empresas como Google y YouTube, puedes ser independiente, pero requerirá mucha sofisticación desde una perspectiva de promoción”.

11 –    Comentarios finales

La inevitable integración cada vez más amplia de la Inteligencia Artificial en el campo de la producción musical apunta a una era de transformaciones inminentes, ante la necesidad de prepararnos a través de estudios, investigaciones y formación para optimizar su aplicación. Es crucial enfatizar que este proceso está intrínsecamente ligado a elementos como complementos, aplicaciones y DAW, que imparten su calidad sonora al resultado final, y especialmente en el contexto de la masterización asistida por IA, la excelencia del resultado dependerá directamente. de la calidad del software utilizado y de su correcto uso.

Desde mi punto de vista (Marlon Porto) es innegable que, hasta la fecha, la calidad de sonido proporcionada por compresores, ecualizadores, procesadores y conversores especializados en masterización predominantemente analógica, siguen siendo insuperables con resultados diferenciados, siguiendo así el estándar de la industria fonográfica.

Advertisement

Ahora en la restauración, el software dedicado es insuperable con su IA. En el ámbito de la mezcla, aunque el impacto es menor hasta ahora, es imperativo que las startups también reconozcan esta preocupación, ya que la calidad del sonido y la autenticidad juegan un papel importante; además, el algoritmo subyacente al modelo de IA debe desempeñar un papel crucial en la optimización. Durante el proceso, pero sin comprometer otros elementos de la combinación, es crucial adoptar un enfoque consciente en el uso de estas tecnologías en evolución, ya que enfrentamos un horizonte prometedor pero desafiante y hasta ahora se recomienda una combinación de ambos mundos.

*Autor: Marlon Porto, técnico de audio de Promaster studio, Brasil.

Fuentes de investigación y recortes periodísticos:

Seleccionado

Salir de la versión móvil