La foto muestra el rostro de una mujer joven con cabello largo y oscuro y una sonrisa suave que dice que se “siente bonita hoy :)”. Y en Reddit, donde Claudia, como se llama, se ofrece a vender fotos de desnudos a cualquiera que le envíe un mensaje privado, es bastante popular: “Mie**, eres hermosa”, dijo un comentarista.
Por Traducción libre lapatilla.1eye.us / Washington Post
Pero Claudia es falsa: un conjunto de fotos sorprendentemente convincentes hechas con herramientas de imágenes de inteligencia artificial, posiblemente implementadas para sacar dinero de compradores desprevenidos, según dos investigadores de medios sintéticos.
Los rápidos avances en los generadores de imágenes de IA como Midjourney y Stable Diffusion han ganado la atención mundial en las últimas semanas por sus ingeniosas obras de arte e impresionantes falsificaciones de expresidentes y papas .
Pero el caso de Claudia sugiere el lado más explícito de la tecnología: al permitir que cualquier persona cree imágenes de personas falsas que parecen increíblemente reales, las herramientas están remodelando la forma en que se hace y se consume la pornografía.
Durante años, la nueva tecnología ha sido pionera a través de la pornografía, y las herramientas de imágenes de IA no han roto con ese patrón. Miles de cuentas ahora están registradas en foros de discusión y salas de chat dedicadas a la creación y refinamiento de personas sintéticas, la mayoría de las cuales se asemejan a niñas y mujeres, un cambio rápido que podría poner patas arriba una industria multimillonaria, socavar la demanda de modelos del mundo real y actores y alimentan preocupaciones más profundas sobre la cosificación y explotación femenina.
Un administrador de sistemas en un hospital en el Medio Oeste, quien, al igual que los otros creadores de pornografía artificial y espectadores entrevistados para esta historia, habló bajo condición de anonimato, dijo que ha estado usando herramientas de difusión estable para crear fotos fetichistas de mujeres adultas en pañales. , y que los avances en la calidad de la imagen han hecho que su falsedad no importe.
“A la persona promedio que mira estas cosas, no creo que les importe”, dijo. “No espero que la persona que veo en línea sea la persona que dice ser. No voy a conocer a esta persona en la vida real. … Al final del día, si no son reales, ¿a quién le importa realmente?”.
La cuenta de Claudia no respondió a las solicitudes de comentarios, por lo que es imposible confirmar cómo se hicieron las fotos o cuánto dinero recaudaron con la artimaña de meses.
Pero los investigadores dijeron que las fotos tenían varias características claras de una falsificación, incluidos detalles de fondo extraños y un lunar en el cuello que desaparecía entre las poses. “En realidad, es bastante fácil de crear”, dijo un programador de IA.
Los investigadores identificaron varios perfiles en línea de mujeres que creen que son avatares falsos basados ??en los artefactos reveladores que dejan algunos generadores de imágenes de IA. Usando perfiles en Instagram, Reddit, Twitter y OnlyFans, las cuentas compartieron imágenes de mujeres en diferentes etapas de desnudez y les dijeron a los espectadores que deberían pagar o suscribirse si querían ver más.
Para leer la nota completa, aquí