La organización británica Internet Watch Foundation ha descubierto material de categoría A y B, los tipos más graves de abuso sexual, con imágenes muy realistas de niños entre 3 y 6 años.
Las imágenes de abuso infantil creadas por inteligencia artificial (IA) han dificultado la protección de las víctimas y tienen el potencial de exacerbar el problema generalizado del abuso sexual infantil, advirtió la Agencia Nacional contra el Crimen (NCA, por sus siglas en inglés) del Reino Unido.
El organismo estima que hay entre 680.000 y 830.000 adultos, que representan entre el 1,3 % y el 1,6 % de la población adulta del Reino Unido, que suponen algún grado de riesgo sexual para los niños.
Graeme Biggar, director general de la NCA, advirtió que las imágenes generadas por computadora y la disponibilidad de las mismas en línea tiene un efecto «radicalizador» y dificulta identificar a los niños reales que necesitan protección y normaliza aún más el abuso de víctimas reales.
«Hemos comenzado a ver imágenes y videos hiperrealistas creados íntegramente a través de IA», aseveró Biggar y advirtió que el riesgo de que los delicuentes pasen a abusar sexualmente de niños «aumenta significativamente» después de «la visualización de estas imágenes, ya sean reales o generadas por IA».
No es un crimen sin víctimas
Por su parte, la organización británica Internet Watch Foundation (IWF) ha descubierto y eliminado material de categoría A y B, los tipos más graves de abuso sexual, con imágenes muy realistas de niños pequeños, de entre 3 y 6 años. Asimismo, ha encontrado un «manual» en línea destinado a ayudar a los delincuentes a entrenar herramientas de IA para generar imágenes de abuso aún más realistas.
La organización señaló que a pesar de que las imágenes no representan a niños reales, su creación está «lejos de ser un crimen sin víctimas, [ya que] estas imágenes pueden normalizar y arraigar el abuso sexual de niños«, además de hacer que sea más difícil detectar niños reales en peligro.
La IWF investigó 29 informes que indicaban contenido sospechoso generado por IA entre el 24 de mayo y el 30 de junio, y confirmó que 7 de ellos contenían material de abuso sexual infantil generado por IA, y algunos presentaban una combinación de imágenes reales e imágenes de IA.
La directora ejecutiva de IWF, Susie Hargreaves, instó al primer ministro del Reino Unido, Rishi Sunak, a que priorice la cuestión del material de abuso sexual infantil generado por IA, en la próxima cumbre mundial sobre seguridad, que se llevará a cabo en otoño.
«Estamos dando la voz de la alarma y afirmando que el primer ministro debe tratar la grave amenaza que [esto] representa con la máxima prioridad», dijo e indicó que es necesario introducir una legislación adecuada para adelantarse al riesgo que supone la IA en este sentido.