Alerta: pedófilos utilizan IA para crear contenido de abuso sexual infantil

El delito fue registrado en Reino Unido.Generan alteración de fotografías de niños conocidos o famosos con las que producen el contenido ilegal inédito.

13 de septiembre, 2023 | 12.29

Alertan que pedófilos están explotando software de inteligencia artificial (IA) de código abierto para fabricar material de abuso sexual infantil.  Así lo detectó la Organización Internet Watch Foundation (IWF), con sede en el Reino Unido.

Según su información, están utilizando software de IA de código abierto y crean pornografía infantil a través de la alteración de fotografías de niños conocidos o famosos con las que producen el contenido ilegal inédito.

Dan Sexton, director de tecnología de la IWF, dijo que "existe una comunidad técnica dentro del espacio de los delincuentes, particularmente en los foros de la web oscura, donde se discute esta tecnología. Comparten imágenes, modelos de IA y guías".

En declaraciones al diario The Guardian, Sexton destacó la dificultad de abordar el problema debido a que el contenido generado con software de código abierto "se descarga y ejecuta localmente en las computadoras de las personas".

Dan Sexton, director de tecnología de la IWF.

"El abuso sexual infantil en línea ya es una epidemia de salud pública. Potencialmente esto sólo empeorará las cosas", dijo Sexton ante el posible incremento de contenido de abuso infantil generado por IA.

Abuso sexual infantil e IA: qué detectaron

La principal diferencia entre la IA de código abierto y las herramientas de modelo cerrado, como Dall-E de OpenAI o Imagen de Google, radica en que los usuarios pueden descargar, modificar y ajustar el software de la primera, mientras que los modelos subyacentes de la segunda no están disponibles al público.

El alerta destaca que los delincuentes comienzan con un modelo básico de generación de imágenes, que luego se ajusta con imágenes de abuso sexual infantil, lo que permite generar contenido más realista y perturbador con menos requerimientos de computación.

A los expertos les preocupa que esos contenidos ilícitos generado por IA dificulten la identificación y asistencia a las víctimas reales. Además, la creación masiva de imágenes realistas podría ampliar su consumo.

Mientras tanto, el Reino Unido planea abordar el tema del abuso sexual infantil generado por IA en el próximo proyecto de ley de seguridad en línea, obligando a las plataformas de redes sociales a prevenir su difusión. Ian Hogarth, presidente del grupo de trabajo de IA del Gobierno británico, se mostró preocupado por los desafíos de los modelos de código abierto, que una vez liberados, son difíciles de controlar.