Algunos de los nombres más importantes de la industria musical: Nicki Minaj, Katy Perry, Billie Eilish, Camila Cabello y un montón de otros (más de 200 en total) firmaron un documento enérgico carta abierta pidiendo a las empresas de tecnología, desarrolladores de IA y plataformas de música para que se comprometan a que no fabricarán ni utilizarán herramientas de generación de música de IA .
La carta también fue firmada por artistas como REM, Pearl Jam, Q-tip, Darius Rucker, Smokey Robinson y Stevie Wonder. , y las propiedades de Frank Sinatra y Bob Marley.
Con un lenguaje cargado (verbos como “sabotaje” y adjetivos como “depredador”) y un llamado a la acción específico para todo el sector tecnológico, la carta ha sido Destacada como una de las posturas más firmes que la industria musical ha adoptado respecto de la IA..
Quartz descompone lo que dijeron.
Nosotros, los miembros abajo firmantes de las comunidades de artistas y compositores, hacemos un llamado a las empresas, plataformas y servicios de música digital que desarrollan IA para que cesen el uso de inteligencia artificial (IA) para infringir y devaluar los derechos de los artistas humanos.
Esta no es ni mucho menos la primera vez que los artistas denuncian a las empresas tecnológicas por el uso de la IA. Universal Music Group, que representa a Taylor Swift y Bad Bunny, ha estado discutiendo con TikTok para desarrollar herramientas que habiliten música generada por IA , algo que dijo UMG en su propia carta abierta fue “nada menos que patrocinar el reemplazo de artistas por parte de AI”. De hecho, UMG ya no permite su música en la plataforma de redes sociales .
No se equivoque: creemos que, cuando se usa de manera responsable, la IA tiene un enorme potencial para promover la creatividad humana y de una manera que permita la desarrollo y crecimiento de experiencias nuevas y emocionantes para los fanáticos de la música en todo el rio.
Es verdad: la IA es hacer que la creación musical sea más accesible por ejemplo, permitiendo que las personas con discapacidades toquen instrumentos que de otro modo no podrían.
Desafortunadamente, algunas plataformas y desarrolladores están empleando IA para sabotear la creatividad y socavar a artistas, compositores, músicos y titulares de derechos. Cuando se usa de manera irresponsable, la IA plantea enormes amenazas a nuestra capacidad para proteger nuestra privacidad, nuestras identidades, nuestra música y nuestros medios de vida. Algunas de las más grandes y poderosas Las empresas están, sin permiso, utilizando nuestro trabajo para entrenar modelos de IA. Estos esfuerzos están dirigidos directamente a reemplazar el trabajo de artistas humanos con cantidades masivas de “sonidos” e “imágenes” creados por IA que diluyen sustancialmente los fondos de regalías que se pagan a los artistas. Para muchos Músicos, artistas y compositores que trabajan y que simplemente están tratando de llegar a fin de mes, esto sería catastrófico.
Editores de música Universal Music Group, ABKCO y Concord Music en 2023 demandó a la empresa de IA Anthropic por usar las letras de las canciones de sus artistas para entrenar a su chatbot Claude.
Si no se controla, la IA pondrá en marcha una carrera hacia el fondo que degradará el valor de nuestro trabajo y nos impedirá ser justos. compensado por ello. Este ataque a la creatividad humana debe detenerse.
Debemos protegernos contra el uso depredador de la IA para robar las voces y las imágenes de los artistas profesionales, violar los derechos de los creadores y destruir la música. ecosistema. Hacemos un llamado a todos los desarrolladores de IA, empresas de tecnología, plataformas y servicios de música digital para que se comprometan a no desarrollar ni implementar música de IA. -tecnología, contenido o herramientas generados que socavan o reemplazan el arte humano de los compositores y artistas o nos niegan una compensación justa por nuestro trabajo.
Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.