Una serie de avances sociales han resultado del uso generalizado de la inteligencia artificial (IA), pero como ocurre con todas las tecnologías, es posible hacer un mal uso de la IA, y pueden terminar en producir videos de abuso infantil.
En plataformas como «DALL-E», «Midjourney» y «Stable Diffusion», que brindan recursos para producir imágenes increíblemente realistas a través de comandos sencillos, los analistas están preocupados por el uso de inteligencia artificial para crear pornografía infantil.
La cantidad de contenido pedófilo virtual generado por inteligencia artificial ha aumentado significativamente, según Rebecca Portnoff, directora de «Thorn», una organización fundada en 2012 que trabaja para prevenir la explotación sexual de niños y adolescentes.
Afirmó que «imágenes de niños, incluido el contenido de víctimas conocidas, se están reutilizando para esta producción realmente malvada», y explicó que, en realidad, esto también hace que el trabajo de los investigadores sea muy desafiante.
Esto se debe a que para distinguir entre imágenes generadas por IA e imágenes reales, los agentes involucrados en la identificación del maltrato infantil también deben hacer esta distinción.
«Cuando la policía está tratando de encontrar a un niño en apuros, la identificación de la víctima ya es una aguja en un pajar. La simplicidad de uso y el realismo de estas herramientas representan un problema significativo. Todo esto hace que el trabajo sea aún más difícil», según Portnoff.
El uso de IA para producir contenido pedófilo hizo que las autoridades comenzaran a pensar en cómo podrían llevar a los delincuentes ante la justicia. En otras palabras, juzgarlos bajo las mismas leyes que hacen ilegal la pedofilia en el mundo real.
El FBI señaló que estas imágenes no solo se propagan en la dark web, sino también en “redes sociales, foros públicos o sitios web pornográficos”. La agencia culpó a los recientes avances tecnológicos del aumento de los deepfakes maliciosos, ya que herramientas de inteligencia artificial como Stable Diffusion, Midjourney y DALL-E sirven para generar imágenes realistas a partir de simples mensajes de texto. Estos desarrollos están “mejorando continuamente la calidad, la personalización y la accesibilidad de la creación de contenidos basados en inteligencia artificial”, advirtió el FBI.
“Una vez difundido, las víctimas se pueden enfrentar a dificultades considerables para impedir que se siga compartiendo el contenido manipulado, o para que se elimine de internet”, indica la alerta del FBI. “Esto las deja vulnerables a la vergüenza, el acoso, la extorsión, la pérdida financiera o la revictimización continua a largo plazo”.
Aunque hay acuerdo en que quienes crean videos de abuso infantil, aunque sean creados con inteligencia artificial y no con abuso infantil real, son delincuentes, todavía no hay claridad sobre el tema.

¿Infringen las imágenes de IA las leyes de protección de menores de edad?
Dos funcionarios de la Sección de Explotación y Obscenidad Infantil del Departamento de Justicia de EE UU declararon a The Washington Post que las imágenes generadas por IA que muestran a “menores participando en conductas sexualmente explícitas” son ilegales de acuerdo con, por lo menos, dos leyes de ese país.
Una ley “prohíbe a cualquier persona producir, distribuir, recibir o poseer conscientemente con intención de transferir o difundir, representaciones visuales, como dibujos, caricaturas o pinturas, que aparenten representar a menores de edad en conductas sexualmente explícitas y se consideren obscenas”. La otra ley “define la pornografía infantil como cualquier representación visual de una conducta sexualmente explícita en la que participe un menor de edad”, incluidas las “imágenes generadas por computadora indistinguibles de un menor de edad real”.
En Estados Unidos ha habido al menos un caso reciente en el que la creación de “imágenes ‘deepfake‘ sexualmente explícitas” de menores de edad dio lugar a cargos penales. El fiscal de distrito del condado de Nassau, en Long Island (Nueva York), anunció en abril que “un hombre de Seaford”, Patrick Carey, de 22 años, fue condenado a “seis meses de prisión y 10 años de libertad condicional con sanciones significativas de delincuente sexual” después de que 11 mujeres denunciaran la publicación en sitios pornográficos de imágenes deepfake que él había creado utilizando fotos de menores de edad, tomadas en la escuela primaria y secundaria, y que las víctimas habían subido a internet.
Fuera de Estados Unidos, ActiveFence, en su informe de mayo de 2023, observaba que la Ley de Protección del Menor del Reino Unido, la Ley del Código Penal de Australia y el Código Penal de Canadá, aparentemente contemplan las imágenes generadas por inteligencia artificial en las prohibiciones de materiales que muestren o promuevan la actividad sexual con un menor. En el caso de México, por ejemplo, la Secretaría de Gobernación resalta que “debe evitarse la difusión de imágenes o noticias que propicien, o sean tendientes a la discriminación, criminalización o estigmatización de niñas, niños o adolescentes”; mientras que Argentina subraya, respecto al derecho a la imagen, en el artículo 53 del Código Civil y Comercial, que “para captar o reproducir la imagen o la voz de una persona, de cualquier modo que se haga, es necesario su consentimiento”.
En Canadá se ha registrado hasta ahora por lo menos una detención. Steven Larouche, un hombre de 61 años de Quebec, fue condenado a más de tres años de prisión tras ser acusado de crear pornografía infantil generada por inteligencia artificial, de acuerdo a información de CBC News.
Larouche se declaró culpable de elaborar siete videos superponiendo rostros de niños en cuerpos de otras personas, tras argumentar a favor de una condena menor las razones por las que supuestamente no se había afectado a ningún niño o niña.
Al parecer, el juez del caso, Benoit Gagnon, indicó en su sentencia que los niños habían sufrido muchos daños. Se afectó a los menores cuyas fotos fueron utilizadas, destacó Gagnon, así como también a aquellos que han sido perjudicados por el creciente mercado de este tipo de contenido IA y cualquier niño o niña víctima de personas cuyas “fantasías” fueron “alimentadas” por la avalancha de imágenes de esta tecnología, que normalizan la actividad ilícita online.
Gagnon señaló que este era probablemente el primer caso en Canadá “de deepfakes de explotación sexual infantil”. Un experto en la materia contó a la CBC que solo se habían dado casos anteriores en los que se utilizaba tecnología más rudimentaria, como Photoshop, para generar imágenes falsas.
¿De la dark web a las redes sociales?
Algunos funcionarios del Departamento de Justicia de EE UU declararon al Post que “cientos de agentes de las fuerzas de seguridad federales, estatales y locales implicados en la lucha contra la explotación infantil probablemente debatirán» este mes cómo afrontar el CSAM generado por IA en una sesión de capacitación nacional. Pero los agentes no son los únicos que trabajan para encontrar mejores soluciones a este problema.
Los investigadores en inteligencia artificial dijeron al Post que también buscan formas de innovar soluciones, como imprimir un código en las imágenes de IA para que los creadores estén siempre vinculados a sus contenidos. Esto podría disuadir a algunos de realizar material ofensivo.
Además, existe una propuesta mucho más delicada que solo prosperaría con la aprobación del gobierno. Las compañías entrenarían modelos de inteligencia artificial con imágenes falsas de explotación sexual infantil para crear sistemas de detección más sofisticados. Sin embargo, sin las medidas de protección adecuadas, esta opción daría lugar a que las empresas desarrollaran modelos de IA mucho mejores para generar imágenes aún más realistas.
Por ahora, no se cuenta con soluciones perfectas. Proveedores de confianza y seguridad como ActiveFence trabajan para ayudar a las plataformas a identificar los contenidos ofensivos que se siguen generando. Sus investigadores vigilan el uso que hacen los abusadores de menores de las herramientas de IA y comparten información con las compañías tecnológicas, como las últimas palabras clave y mensajes utilizados para eludir las restricciones de contenido.
El vicepresidente sénior de la división de explotación infantil y participación internacional del NCMEC, John Shehan, comentó a Ars Technica que “los agresores prueban actualmente las herramientas e intentan crear material”. Según él, el NCMEC prevé que el CSAM generado por IA se convierta en un problema mayor en el futuro y que probablemente no permanecerá circulando únicamente en la dark web durante mucho tiempo más.
“Por el momento no he visto ningún CSAM generado por IA en la red abierta, pero estoy seguro de que es solo cuestión de tiempo”, declaró Shehan a Ars.
Guy Paltieli, investigador titular de seguridad infantil de ActiveFence, indicó a Ars que ese momento podría estar ocurriendo ahora. Su equipo ya ha detectado “contenidos que migran de los foros de la dark web a la red común” y ha encontrado “numerosos ejemplos” en “las principales plataformas de redes sociales”.
“En algunos casos, se utiliza para promocionar grupos de apps de mensajería donde se pueden encontrar contenidos más explícitos, mientras que en otros casos, se comparte para enseñar a los usuarios a generar contenidos similares”, reveló Paltieli a Ars.
Hasta que las leyes no establezcan claramente cómo debe actuar la sociedad ante los deepfakes de explotación sexual infantil, todo lleva a pensar que estas imágenes ofensivas de IA seguirán propagándose, lo que probablemente aumentará la demanda, mientras las herramientas de IA continúan entrenándose con más imágenes ilícitas que los usuarios siguen subiendo.
Shehan aseguró a Ars que “el NCMEC ha recibido como mínimo una docena de informes del sistema CyberTipline enviados por compañías sobre individuos que intentan subir CSAM ya conocido” en los generadores de imágenes de IA para influir en lo que se puede crear. Según Paltieli, una de las consecuencias de la lentitud de las empresas para resolver el creciente problema es la reciente aparición de imágenes aún más explícitas generadas por inteligencia artificial.
“En los últimos dos meses, hemos visto un incremento en el tipo de contenido que se comparte en las plataformas de redes sociales, que se ha vuelto mucho más explícito de lo que solíamos ver en el pasado”, comunicó Paltieli a Ars.
Debido a que estos materiales se utilizan para dibujar niños reales, esa es la principal defensa. Con el fin de difundir la información y atraer a nuevas víctimas potenciales, los pedófilos crean artificialmente las imágenes, muchas de las cuales se basan en fotografías de víctimas reales.
Fuente: Wired & alertacristiana

También te puede interesar
-
Crean una escuela «nativa en IA» que quiere revolucionar la educación
-
Para qué está usando IA la NASA en la exploración de Marte
-
CUIDADO:: Una nueva plataforma con IA ayudará a los pastores en Estados Unidos a escribir sus sermones
-
Meta explica cómo la IA elige lo que ves en Instagram y Facebook
-
Un hombre se suicidó después de que un chat de IA le invitara a hacerlo