La Fundación de Vigilancia de Internet (Internet Watch Foundation, IWF), una organización británica dedicada a detectar y eliminar contenidos ilícitos en línea, ha alertado sobre el aumento “escalofriante” de imágenes y vídeos de abusos sexuales a menores generados por inteligencia artificial (IA). Según un comunicado emitido el viernes, muchas de estas imágenes son tan realistas que resultan casi indistinguibles de las fotografías y vídeos de niños reales, lo que complica aún más la identificación de casos reales de abuso.
Entre abril y septiembre de 2024, la IWF recibió 74 denuncias sobre este tipo de contenidos, superando el número total de alertas recibidas en todo el año anterior. Estas imágenes se encontraron principalmente en sitios de fácil acceso para el público general, con una concentración de contenidos en Rusia (36%), Estados Unidos (22%) y Japón (11%).
El aumento de denuncias ha generado preocupación entre los expertos, quienes temen que la proliferación de estos contenidos sobrepase la capacidad de las organizaciones y fuerzas policiales para combatirlos, tal como señaló un analista de la IWF que prefirió el anonimato. El director interino de la fundación, Derek Ray-Hill, subrayó que el software utilizado para generar estos contenidos tan sofisticados ha aprendido de imágenes reales de abusos, lo que acentúa el peligro que representa la tecnología si no se regula adecuadamente.
Ray-Hill ha instado a los legisladores británicos a actualizar las leyes para adaptarse a los avances tecnológicos, con el objetivo de detener la creación y difusión de este tipo de contenidos en línea.