Apple y Google han eliminado varias aplicaciones deepfake de IA desnuda de sus tiendas de aplicaciones

Un informe de 404 Media esta semana encontró que las llamadas aplicaciones de “desnudarse” se anunciaban en Instagram

Es posible que se gane una comisión por los enlaces en esta página.
Imagen para el artículo titulado Apple y Google han eliminado varias aplicaciones deepfake de IA desnuda de sus tiendas de aplicaciones
Foto: Thomas Trutschel/Photothek (Getty Images)

Apple y Google han eliminado aplicaciones de desnudos deepfake de App Store y Google Play, según un informe de 404 Media.

Publicidad

404 Medios A principios de esta semana descubrimos que Instagram alojaba anuncios de aplicaciones que utilizan IA para generar desnudos deepfake. Uno de esos anuncios utilizaba una imagen de Kim Kardashian con el eslogan, “Desnuda a cualquier chica gratis. Pruébalo.» En el sitio web, un usuario podría subir fotos reales de mujeres y generan fotografías falsas de ellas desnudas. El informe de 404 Media llegó apenas unas semanas después Meta tomó iniciativas haciendo más difícil enviar y recibir desnudos a través de Instagram Messenger en un esfuerzo por proteger a los usuarios adolescentes de los depredadores.

Los desnudos falsos han sido un gran problema en la temprana era de la IA generativa. Desnudos generados por IA de Taylor Swift inundaron X En enero, una de esas fotografías obtuvo decenas de millones de visitas y 24.000 publicaciones repetidas. Desnudos falsos de adolescentes en escuelas en Nueva Jersey, Washington, y California provocó investigaciones a finales de 2023. Hasta ahora, alrededor de dos docenas de estados de EE. UU. han introducido legislación tomar medidas enérgicas contra el contenido sexualmente explícito generado por IA. Y el mes pasado, dos adolescentes en Miami, Florida fueron arrestados por usar las llamadas aplicaciones para desnudar para desnudar a sus compañeros de clase, y fueron acusados de delitos de tercer grado.

Publicidad

No existe ninguna ley federal sobre los desnudos creados por IA, pero los senadores estadounidenses introdujeron una legislación en enero que permitiría a las víctimas demandar a sus perpetradores.

Publicidad

“Aunque las imágenes pueden ser falsas, el daño a las víctimas por la distribución de deepfakes sexualmente explícitos es muy real”, dijo US senadores Richard Durbin y Lindsey Graham en su anuncio del proyecto de ley llamada Ley DE DESAFÍO. “Las víctimas han perdido sus trabajos y pueden sufrir depresión o ansiedad continua”.

Publicidad

Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.

Publicidad