Inteligencia artificial
La generación de imágenes de abuso sexual infantil con IA está llegando a un 'punto de inflexión'
La Fundación Internet Watch alerta de que en los últimos 6 meses han detectado más imágenes de abuso infantil generadas por IA que en todo el año anterior
En los tres últimos años, las herramientas de inteligencia artificial de texto a imagen han dado un salto enorme en la calidad de los resultados que generan, cada vez más fotorrealistas. Entre los peligros que tiene la capacidad de crear cualquier tipo de imagen con una simple descripción de texto se suele citar el de la desinformación como el principal, pero mucho más grave, dañino e inhumano es la generación de imágenes de abuso sexual infantil. Y según ha afirmado la Fundación Internet Watch (IWF, un organismo británico de control) este viernes, la cantidad de imágenes de abuso infantil generadas por IA encontradas en Internet está llegando a un 'punto de inflexión'.
La IWF trabaja con fuerzas policiales y proveedores tecnológicos para rastrear las imágenes que encuentran online y ayuda a eliminar cientos de miles cada año. Ahora, afirma que la inteligencia artificial está haciendo que su trabajo sea mucho más difícil.
'Me resulta realmente escalofriante, ya que siento que estamos en un punto de inflexión', dijo 'Jeff', un analista sénior de la IWF que utiliza un nombre falso para proteger su identidad.
En los últimos seis meses, Jeff y su equipo han detectado más imágenes de abuso infantil generadas por IA que en todo el año anterior. Gran parte de las imágenes creadas con IA que ven son muy realistas. 'Antes, podíamos decir con seguridad qué era una imagen generada por IA, pero estamos llegando al punto en que incluso un analista capacitado tendría dificultades para saber si es real o no', afirma Jeff.
Según explica la IWF, para hacer que las imágenes de IA sean tan realistas, el software se entrena con imágenes ya existentes de abuso sexual. Conviene recordar que, aunque estén generadas por IA, las imágenes explícitas de niños son tan ilegales como las reales.
'El material de abuso sexual infantil generado por IA causa un daño horrible, no solo a quienes podrían verlo, sino también a los supervivientes que son revictimizados cada vez que sus imágenes y vídeos de abuso son explotados sin piedad para el retorcido disfrute de los depredadores en Internet', señala Derek Ray-Hill, director ejecutivo interino de la IWF.
Más preocupante es el hecho de que casi todo el contenido detectado por la IWF no estaba oculto en la Dark Web, sino en la Internet de acceso público al alcance de cualquiera.
Los analistas de la IWF suben las URL de páginas web que contienen imágenes de abuso sexual infantil generadas por IA a una lista que se comparte con la industria tecnológica para que puedan bloquear los sitios. Las imágenes de IA también reciben un código único, una huella digital, para que puedan ser rastreadas automáticamente, incluso si se eliminan y se vuelven a cargar en otro lugar.
Más de la mitad del contenido generado por IA encontrado por la IWF en los últimos seis meses estaba alojado en servidores en Rusia y Estados Unidos, con una cantidad significativa también encontrada en Japón y los Países Bajos.