En una alerta que circuló esta semana, el FBI informó que ha observado un aumento en las víctimas de extorsión quienes dijeron haber sido atacadas usando versiones manipuladas de imágenes inocentes tomadas de publicaciones en línea, mensajes privados o chats de video.
"Las fotos luego son enviadas directamente a las víctimas por actores maliciosos para extorsión o acoso sexual", dijo la advertencia. "Una vez que circula, las víctimas pueden enfrentar problemas importantes para evitar el intercambio continuo del contenido manipulado o la eliminación de internet".
El FBI dijo que las imágenes parecían "reales" y que, en algunos casos hubo niños atacados.
El Buró Federal de Investigaciones no entró en detalles sobre los programas utilizados para generar imágenes sexuales, pero señaló que los avances tecnológicos "mejoraban continuamente la calidad, la personalización y la accesibilidad de la creación de contenido habilitada por inteligencia artificial (IA)".
La oficina no respondió a consultas en busca de detalles sobre el fenómeno.
La manipulación de imágenes inocuas para crear imágenes sexualmente explícitas es casi tan antigua como la fotografía misma, pero el lanzamiento de herramientas de IA de código abierto ha hecho que el proceso sea más fácil que nunca.
Los resultados a menudo son indistinguibles de las fotografías de la vida real y en los últimos años han surgido páginas de internet especializadas en la creación e intercambio de imágenes sexuales habilitadas por IA.
MAT