Ciberdelincuentes están creando falsas imágenes y videos sexuales mediante IA para sextorsión
Se advierte sobre el uso de herramientas basadas en inteligencia artificial para crear desnudos a partir de imágenes y videos públicos para extorsionar a las personas.
Ecuador– Con el avance de las herramientas basadas en inteligencia artificial (IA) para la generación de imágenes y la calidad de los resultados los actores maliciosos han encontrado una forma de mejorar estos ataques. ESET, compañía líder en detección proactiva de amenazas, advierte la creación de desnudos a partir de imágenes y videos públicos para extorsionar a las personas.
En un comunicado publicado el 5 de junio, el FBI alertó sobre el uso por parte de actores maliciosos de imágenes y videos públicos manipulados para campañas de sextorsión. Según advierten, en el último tiempo han recibido varios reportes de víctimas que han sido víctima de la manipulación de videos e imágenes suyas para la creación de imágenes sexuales falsas. Los actores maliciosos detrás de estas campañas luego divulgan este material en redes sociales o sitios de pornografía para luego extorsionar a las víctimas o simplemente intimidarlas. Lamentablemente, entre las denuncias también se registraron víctimas que son menores de edad.
Estas imágenes y videos son obtenidos de redes sociales, de fuentes públicas o incluso proporcionadas por las víctimas y mediante tecnologías basadas en Inteligencia Artificial crean imágenes falsas con apariencia muy real. Como ya explicamos en un artículo sobre la creación de rostros falsos mediante IA, la calidad de estas imágenes puede engañar fácilmente el ojo humano.
El FBI explica también que muchas de las víctimas no están al tanto de la existencia de estas imágenes falsas en las que se suplanta su identidad hasta que alguien le avisa porque las encontró de forma casual o porque son chantajeadas. Si bien es posible intentar que ese contenido desaparezca de Internet, es una tarea muy compleja.
Vale la pena mencionar que en los últimos años hemos visto muchas campañas de sextorsión en las cuales los delincuentes envían correos personalizados intentando asustar a las víctimas haciéndoles creer que han sido víctimas de una infección con un malware que permitió a los cibercriminales grabar videos íntimos utilizando la cámara web de la víctima. Si bien es falso y los delincuentes no han infectado con malware los equipos y no tienen videos o imágenes comprometedores, igualmente intentan extorsionar a las víctimas para que envíen dinero y de esta manera evitar que ese supuesto contenido empiece a circular por Internet. Lamentablemente, muchas personas caen en la trampa. La forma de robar el dinero puede variar. Muchas veces solicitan depositar determinada suma en criptomonedas en una billetera virtual y otras veces pueden demandar el envío de gift cards.
Está claro que con el avance de las herramientas basadas en IA para la generación de imágenes y la calidad de los resultados los actores maliciosos han encontrado una forma de mejorar estos ataques. Actualmente existe una gran cantidad de herramientas y aplicaciones que se ofrecen de forma gratuita en repositorios públicos para crear deepfakes e incluso en foros clandestinos.
“Sin dudas que esta realidad actual obliga a los cuidadores de niños y adolescentes a estar más atentos y a poner al tanto a los más chicos sobre estas nuevas tendencias. También refuerza la importancia de enseñar buenas prácticas de privacidad en línea y las consecuencias de la información que publicamos. Pero no solo debemos proteger a los más chicos, sino también los propios adultos, que también son víctimas.” agrega Gutiérrez Amaya de ESET.
Algunos países ya están tomando medidas para minimizar el uso de deepfakes y en Reino Unido, por ejemplo, ya existen iniciativas para cambiar la ley y sancionar a quienes comparten estos contenidos falsos.
Fuente: www.welivesecurity.com