Meta Promociona IA para Crear Desnudos No Consentidos
Instagram está obteniendo beneficios de varios anuncios que invitan a las personas a crear film porno e imágenes de desnudos no consensuadas con aplicaciones de generación de imágenes de IA, demostrando una vez más que algunas de las aplicaciones más perjudiciales de las herramientas de IA no están ocultas en los rincones oscuros de Internet, sino que son promovidas activamente a los usuarios por parte de las compañías de redes sociales incapaces o no dispuestas a hacer cumplir sus políticas sobre quién puede comprar anuncios en sus plataformas.
Anuncios Egregios
Aunque la Biblioteca de Anuncios de Meta, la empresa matriz, archiva los anuncios en sus plataformas, quién los pagó y dónde y cuándo se publicaron, muestra que la compañía ha retirado varios de estos anuncios anteriormente, muchos anuncios que invitaban explícitamente a los usuarios a crear desnudos y algunos compradores de anuncios estaban activos hasta que me puse en contacto con Meta para hacer comentarios. Algunos de estos anuncios eran para los servicios de «desnudar» o «nudificar» no consensuales más conocidos en Internet.
Ejemplos de Anuncios
Uno de los anuncios más atroces incluye una fotografía de Kim Kardashian y el texto «Desnuda a cualquier chica gratis. Pruébalo.» Las personas que hicieron clic en este anuncio serían llevadas directamente a una de las mayores aplicaciones basadas en la web para desnudar, donde pueden subir una fotografía de una persona real y pagar para que la aplicación genere una imagen que haga que la persona en esa fotografía aparezca desnuda. Según la Biblioteca de Anuncios de Meta, varias versiones de este anuncio, algunas con otras mujeres, se ejecutaron en Instagram y Facebook entre el 13 y el 19 de marzo.
Otro ejemplo muestra una imagen dividida generada por IA de una joven, completamente vestida en el lado izquierdo de la imagen, y desnuda en el lado derecho. El texto en la imagen dice:
Pruébalo ahora. BORRA cualquier ropa. 1. Borra en cualquier lugar. 2. ¡Imagen de salida! Esta APLICACIÓN puede borrar…
Anuncio Instagram
Difusión de Anuncios
Varias versiones de este anuncio, con otras mujeres generadas por IA, y en algunos casos mostrando cómo la aplicación puede generar mujeres en bikini en lugar de desnudos completos, se han estado ejecutando en Facebook, Instagram, Facebook Messenger y la red de anuncios dentro de la aplicación de Meta del 10 al 20 de abril.
Las personas que hacen clic en este anuncio son enviadas a la App Store de Apple, donde la misma aplicación se promociona como un «generador de arte«, y no hace referencia al hecho de que puede generar desnudos. Este es un vacío bien establecido en las tiendas de aplicaciones móviles que Sam y yo informamos por primera vez en 2022. Estas aplicaciones no mencionan contenido para adultos en sus páginas de la tienda de aplicaciones o en sus sitios porque va en contra de las políticas de las tiendas de aplicaciones, pero estaban promocionando activamente su capacidad para crear pornografía deepfake no consensuada en otros sitios de tubos porno. Recientemente, Google eliminó una de estas aplicaciones de Google Play después de nuestros informes.
Respuesta de Meta y Otras Empresas
Este anuncio apareció en la Biblioteca de Anuncios de Meta hasta que se lo envié a Meta pidiendo comentarios, momento en el cual la imagen del anuncio fue eliminada y la Biblioteca de Anuncios indicó que Meta había tomado medidas al respecto. Luego, Meta me preguntó si podía enviarles todos los anuncios como este que he visto. Le envié a la compañía algunos más, y los eliminaron también.
Meta no permite anuncios que contengan contenido para adultos y cuando identificamos anuncios que infringen nuestras políticas, trabajamos rápidamente para eliminarlos, como estamos haciendo aquí
Daniel Roberts – Portavoz de Meta
Meta agregó que seguirá revisando el contenido y también tomará medidas sobre las cuentas que encuentre que violen sus políticas.
Apple y los creadores de estas aplicaciones no respondieron a una solicitud de comentarios.
404 Media no está nombrando las aplicaciones específicas y está redactando sus nombres de las imágenes en esta historia porque todavía permiten a los usuarios crear imágenes de desnudos no consensuadas.
Evaluación de Aplicaciones
En general, vi anuncios de cinco aplicaciones diferentes que anunciaban su capacidad para «nudificar» imágenes, aunque no todas funcionaron según lo anunciado. Una aplicación que anunciaba explícitamente su capacidad para «borrar» la ropa, por ejemplo, invita a los usuarios a pagar una tarifa de suscripción de $30 para desbloquear capacidades «NSFW» tan pronto como un usuario lance la aplicación. Sin embargo, la página de la App Store de Apple para esta aplicación incluye muchas críticas negativas que dicen específicamente que no pudieron o tuvieron problemas para generar imágenes de desnudos. Probé la aplicación y no pude hacer que generara una imagen de desnudo.
Aumento de Aplicaciones
Las aplicaciones móviles de cambio de rostros que están disponibles a través de las tiendas de aplicaciones de Google y Apple son comunes, y son otra forma en que la pornografía generada por IA no consensuada está volviéndose más fácil de producir. El uso de estas aplicaciones de «desnudar» se ha extendido a las escuelas de todo el país, y recientemente resultó en el arresto de dos estudiantes de secundaria en Florida. Recientemente cubrimos un caso en una escuela secundaria del estado de Washington donde varios estudiantes fueron investigados por la policía por usar una aplicación de «desnudar» que toma una fotografía real de una persona y la hace aparecer desnuda.
Si bien varias empresas de redes sociales han promovido estas aplicaciones en el pasado, la calidad de los anuncios de Meta ha sido excepcionalmente mala recientemente. Desde agosto de 2023, hemos informado que Instagram ha estado ejecutando anuncios de drogas, tarjetas de crédito robadas, cuentas hackeadas, dinero falsificado, armas y estafas de inversión obvias de cuentas que pretenden ser personas ricas y famosas. Muchos anuncios similares siguen funcionando, incluso después de que los señalamos a Instagram.