Edición México
Suscríbete
Ed. México

El Imparcial / Mundo / Disney World

Hombre grabó a niños en Disney World para crear imágenes de explotación infantil con IA

Justin Culmo, arrestado en 2023, presuntamente creó imágenes ilegales de niños usando inteligencia artificial.

Hombre grabó a niños en Disney World para crear imágenes de explotación infantil con IA

ESTADOS UNIDOS.- Para muchos niños, Disney World en Orlando, Florida, representa el viaje de sus sueños. Sin embargo, para Justin Culmo, el hombre que los grabó con una GoPro, el parque de diversiones se convirtió en un escenario de explotación infantil.

Grabó a niños en Disney para ‘crear’ imágenes con IA

Justin Culmo, quien fue arrestado a mediados de 2023, utilizó su GoPro para grabar a niños en Disney World con el propósito de generar imágenes ilegales a través de inteligencia artificial.

Culmo empleó una versión del modelo Stable Diffusion para transformar las grabaciones en imágenes de explotación infantil.

La investigación reveló que Culmo no solo capturó a niños en el parque de diversiones, sino que también extendió sus actividades a al menos una escuela secundaria.

Según los agentes federales, esta práctica implicaba manipular imágenes reales de menores para crear material de abuso sexual infantil (CSAM).

Fotografía de archivo del 31 de enero de 2017 de autos en una carretera que lleva a Walt Disney World en Lake Buena Vista, Florida. (AP Foto/John Raoux, Archivo)

También abusó de al menos dos niñas

Además de las graves acusaciones de explotación infantil, las autoridades descubrieron que Culmo había sido denunciado anteriormente por abuso sexual infantil.

En 2014, una niña que estaba bajo su cuidado denunció haber sido tocada de manera inapropiada por Culmo, según informes de Child Protective Services.

En 2017, otro reporte detalló un incidente similar en el que Culmo había tocado a una niña y tomado una fotografía de su abuso.

Encontraron evidencia de sus crímenes en su domicilio

Durante el allanamiento en su domicilio, los investigadores encontraron varias cámaras espías y prendas íntimas de menores, lo que refuerza las acusaciones de que Culmo no solo producía material de abuso infantil, sino que también estaba involucrado en otras formas de explotación sexual.

Estos hallazgos han aumentado la gravedad de los cargos en su contra, que incluyen producción, distribución y posesión de material de abuso sexual infantil, así como la comisión de otros delitos sexuales que aún están siendo investigados.

¿Cómo lo encontraron?

Jim Cole, exinvestigador del Departamento de Seguridad Nacional (DHS), que ha rastreado las actividades en línea del acusado durante más de 25 años, agregó que la actividad de Culmo es un ejemplo macabro de cómo la IA puede ser manipulada para crear imágenes de abuso infantil.

La investigación, dirigida por el DHS, reveló que Culmo había sido uno de los “20 objetivos de alta prioridad” en la lucha contra la explotación infantil a nivel mundial.

Utilizando tecnología de reconocimiento facial, los investigadores rastrearon imágenes manipuladas hasta Culmo, lo que permitió identificar a una víctima.

La investigación descubrió que Culmo estaba vinculado a una comunidad en la dark web que comparte material de abuso infantil.

Si es condenado, podría enfrentar hasta 30 años de prisión por cada cargo de producción, 20 años por distribución y 20 años más por posesión.

El papel de la inteligencia artificial

Este caso destaca un problema creciente: el uso de IA para crear imágenes de explotación infantil.

Utilizando Stable Diffusion, un modelo de IA generativa, Culmo no solo manipuló imágenes de niños reales, sino que también creó imágenes ficticias de abuso infantil. Esta tecnología, aunque innovadora, ha demostrado ser una herramienta preocupante en manos equivocadas.

La clave para entender la conciencia podría estar en lo más básico de nuestras experiencias diarias (IA).

¿Qué es Stable Diffusion?

Stable Diffusion 1.5, una de las versiones más utilizadas de esta tecnología, permite a los usuarios generar imágenes altamente realistas a partir de descripciones textuales.

Su accesibilidad y capacidad para funcionar en equipos personales sin almacenar datos en servidores externos lo han convertido en una opción popular entre delincuentes.

A diferencia de otras herramientas que podrían tener filtros para prevenir usos indebidos, Stable Diffusion carece de salvaguardias efectivas contra la creación de material ilegal, lo que facilita su explotación para fines nefastos.

Otros casos de IA para producir material de abuso infantil

Recientemente, el Departamento de Justicia de EU presentó cargos contra Seth Herrera, un soldado acusado de utilizar herramientas similares para generar imágenes sexualizadas de menores.

La Internet Watch Foundation (IWF) también reportó una alarmante cantidad de imágenes de CSAM, más de 3,500, que fueron generadas por IA en línea durante el año 2023.

La fiscal general adjunta Lisa Mónaco advirtió a los delincuentes que consideren utilizar IA para sus crímenes:

“El Departamento de Justicia está procesando conductas criminales habilitadas por IA con todo el rigor de la ley y buscará sentencias más altas cuando sea necesario.”

—  Lisa Mónaco

Culmo permanece en la cárcel del condado de Pinellas sin derecho a fianza, mientras el caso se prepara para juicio en octubre.

Sigue nuestro canal de WhatsApp

Recibe las noticias más importantes del día. Da click aquí

Temas relacionados