Instagram logo is displayed on a mobile phone screen for illustration photo. Krakow, Poland on February 9, 2023. (Photo by Beata Zawrzel/NurPhoto via Getty Images)

Investigaciones condenatorias encuentran que Instagram es un vínculo clave que conecta redes de pedófilos

Los legisladores, los investigadores exigen que Meta haga más para detener las redes de pedófilos de Instagram.

Instagram se ha convertido en la plataforma más importante para compradores y vendedores de contenido sexual de menores, según investigaciones de The Wall Street Journal, el Observatorio de Internet de Stanford y el Laboratorio de Rescate de la Universidad de Massachusetts Amherst (UMass).

Mientras que otras plataformas desempeñan un papel en el procesamiento de pagos y la entrega de contenido, Instagram es donde cientos de miles, y quizás millones, de usuarios buscan hashtags explícitos para descubrir «menús» ilegales de contenido que luego se pueden encargar. El contenido que se ofrece incluye imágenes perturbadoras de niños que se autolesionan, «niños pequeños incestuosos» y menores que realizan actos sexuales con animales, así como oportunidades para que los compradores organicen reuniones ilícitas con niños, informó el Journal.

Debido a que el material de abuso sexual infantil (CSAM) en sí mismo no está alojado en Instagram, el propietario de la plataforma, Meta, tiene más dificultades para detectar y eliminar a estos usuarios. Los investigadores descubrieron que incluso cuando el equipo de confianza y seguridad de Meta prohíbe a los usuarios, sus esfuerzos son «directamente socavados» por el sistema de recomendación de Instagram, que permite que las redes se vuelvan a ensamblar rápidamente en cuentas de «respaldo» que generalmente se enumeran en las biografías de las cuentas originales por solo ese propósito de sobrevivir a las prohibiciones.

Un portavoz de Meta le dijo a Ars que la compañía trabaja «agresivamente para combatir» la explotación infantil en todas sus plataformas «y para apoyar a las fuerzas del orden público en sus esfuerzos por arrestar y enjuiciar a los criminales detrás de esto». Debido a que las tácticas de los delincuentes «cambian constantemente», Meta dijo que ha promulgado «políticas y tecnología estrictas para evitar que encuentren o interactúen con adolescentes en nuestras aplicaciones» y contrató «equipos de especialistas que se enfocan en comprender sus comportamientos en evolución para que podamos eliminar las redes abusivas». .» Estos esfuerzos llevaron a Meta a desmantelar 27 redes abusivas entre 2020 y 2022 y prohibir 490.000 cuentas que violaban las políticas de seguridad infantil en enero de 2023, informó el vocero.

Pero estas tácticas no parecen estar haciendo lo suficiente para combatir el problema, dijeron los investigadores. El director de UMass Rescue Lab, Brian Levine, le dijo a Ars que le tomó minutos a su equipo descubrir redes de pedófilos que operan en Instagram después de identificar «etiquetas simples» utilizadas para ayudar a conectar a compradores y vendedores. The Wall Street Journal informó que los hashtags identificados por los investigadores podrían ser obvios, como «pedowhore», o basarse en palabras clave, como «pizza de queso», que comparte iniciales para aludir a la pornografía infantil.

Levine dijo que dado que el equipo de confianza y seguridad de Instagram tiene un acceso más amplio para buscar en la plataforma, debería poder monitorear los hashtags de manera más efectiva que los investigadores externos. Sin embargo, el equipo no parece estar monitoreando la situación de manera efectiva, ya que le faltan hashtags fáciles de descubrir.

Esta fue la primera vez que el laboratorio de Levine investigó Instagram como parte del trabajo del equipo para investigar la victimización infantil en línea y crear herramientas para prevenirla, dijo Levine a Ars.

«Creo que su equipo de confianza y seguridad necesita mucha ayuda», agregó Levine.

En una investigación publicada ayer que investiga el CSAM autogenerado (SG-CSAM) supuestamente publicado por menores que anuncian su propio contenido, Alex Stamos, director del Observatorio de Internet de Stanford (SIO), le dijo a Ars que su equipo no se centró específicamente en Instagram. Pero el equipo descubrió que el sistema de recomendación de la plataforma «juega un papel particularmente importante como mecanismo de descubrimiento que presenta a los compradores con los vendedores». Levine le dijo a Ars que Instagram tiene la obligación de garantizar que su sistema de recomendaciones no promueva contenido abusivo.

The Journal reveló que Instagram falló repetidamente en prohibir los hashtags, eliminar contenido y evitar la promoción una vez que se detectó el contenido. Luego de que el Journal enviara consultas, por ejemplo, Meta confirmó que estaba «en proceso de eliminar» hashtags que promovían materiales ilegales como «pedobait» o «mnsfw» (menor no seguro para el trabajo) y admitió que «permitía a los usuarios buscar términos que sus propios algoritmos saben que pueden estar asociados con material ilegal». Un portavoz de Meta le dijo a Ars que ya ha «restringido miles de términos de búsqueda y hashtags adicionales en Instagram».

El WSJ informó que Instagram era tan ineficaz para detener la formación de anillos de pedófilos que a veces mostraba una pantalla emergente cuando los usuarios buscaban contenido abusivo conocido, advirtiendo a los usuarios que «estos resultados pueden contener imágenes de abuso sexual infantil». elija «ver resultados de todos modos» u «obtener recursos» con respecto a los daños del consumo de contenido abusivo Meta le dijo al Journal que estaba eliminando esta opción, pero no explicó por qué se dio la opción en primer lugar.

Meta también admitió que repetidamente no ha actuado sobre los informes de abuso infantil en Instagram debido a «una falla de software» que impide que los informes se procesen. Según los informes, este error se ha solucionado desde entonces. Ahora Meta dijo que proporcionará capacitación adicional para los revisores de contenido y reunirá un grupo de trabajo interno «para investigar estos reclamos y abordarlos de inmediato».

Exigir a Meta que haga más para proteger a los niños

Sin embargo, no todos confían en que la respuesta de Meta haya sido suficiente para proteger a los niños en Instagram. Hoy, el jefe de la industria de la Unión Europea, Thierry Breton, anunció que se reunirá con Meta el 23 de junio para exigirle a la compañía que haga más para eliminar el contenido dañino dirigido a los niños y proteger a los niños en sus plataformas, informó Reuters .

«El código voluntario de protección infantil de #Meta parece no funcionar», tuiteó Breton . «Mark Zuckerberg ahora debe explicar».

Al menos un legislador estadounidense exige una disculpa de Meta y sugiere que las víctimas deberían poder demandar por lesiones. Hoy, el representante de EE. UU., Jan Schakowsky (D-Ill.), jefe adjunto y miembro de alto rango del Subcomité de Innovación, Datos y Comercio del Comité de Energía y Comercio de la Cámara, emitió una declaración proporcionada a Ars, diciendo que el informe del WSJ muestra que «no había mínimo» al que Meta no «se rebajara para revertir su crecimiento estancado».

Schakowsky llegó a sugerir que los ejecutivos de Meta, incluido Zuckerberg, deberían renunciar, al igual que todo el equipo de confianza y seguridad que no pudo detectar la actividad, dijo. Schakowsky dijo que, como mínimo, los ejecutivos de Meta «se han disculpado conmigo por su papel en el genocidio de los rohingya, y espero que hagan lo mismo aquí».

Levine le dijo a Ars que si Meta continúa permitiendo que las redes de pedófilos proliferen y se expandan en Instagram, las tiendas de aplicaciones de Google y Apple deberían actualizar la calificación de Instagram como insegura para los adolescentes y posiblemente considerar eliminar la aplicación por completo hasta que se resuelva el problema. También dijo que Meta debería ser transparente y publicar un informe luego de la investigación de su grupo de trabajo interno.

Stamos le dijo al Journal que Meta debe dejar de depender de las revisiones de contenido automatizadas y reinvertir «en investigadores humanos». Le dijo a Ars que evitar que los compradores y vendedores se conecten en Instagram podría ayudar significativamente a interrumpir las vastas redes de pedófilos que actualmente dependen de Instagram para descubrir contenido abusivo que luego se vende en otros lugares en línea.

«Instagram es el más importante porque es el comienzo del proceso y acelera el problema con los algoritmos de recomendación que presentan a los compradores nuevos vendedores y les permiten sobrevivir a la suspensión de sus cuentas», dijo Stamos a Ars.

El problema es más grande que Instagram

Si bien el equipo de Stamos descubrió que «Instagram es actualmente la plataforma más importante para estas redes, con funciones que ayudan a conectar a compradores y vendedores», Twitter también surgió como una plataforma clave. A diferencia de Instagram, que no parece alojar el MASI en estas redes, Twitter, bajo la dirección de Elon Musk, «tuvo una aparente regresión al permitir que el MANI se publicara en perfiles públicos, a pesar de que los hash de estas imágenes están disponibles para las plataformas y los investigadores».

Twitter no responde a las solicitudes de comentarios y recientemente perdió a su jefe de confianza y seguridad .

El SIO descubrió que Instagram y Twitter ayudaron a servir como el pegamento que conectaba amplias redes de pedófilos. Después de conectarse en esas plataformas, los compradores pudieron comprar SG-CSAM que luego se entregó en canales privados, incluso en aplicaciones como Telegram, Discord y Snapchat. El contenido también se comparte en servicios de intercambio de archivos como Dropbox, dijo Stamos a Ars. Los pagos se procesaron utilizando aplicaciones como CashApp y PayPal, o mediante el uso de mercados de tarjetas de regalo en G2G, Amazon, PlayStation Network o DoorDash.

«Las redes CSAM autogeneradas son un fenómeno multiplataforma; los vendedores han recreado efectivamente su propio equivalente de OnlyFans mediante el uso de cuatro o cinco plataformas diferentes con diferentes propósitos», dijo Stamos a Ars.

Debido a que el problema va mucho más allá de Instagram, la SIO recomienda un esfuerzo más amplio para desmantelar anillos completos de pedófilos, alentando a las plataformas a cooperar para sofocar el problema. Tal esfuerzo requeriría esfuerzos más proactivos por parte de Instagram y Twitter para bloquear palabras clave y hashtags, y las plataformas tendrían que compartir información de investigaciones internas con otras plataformas y crear modelos para detectar compradores, vendedores y transacciones relacionadas con tarjetas de regalo en todos los sitios. plataformas Quizás lo más significativo es que el SIO quiere ver una reevaluación total de los sistemas de recomendación que permitan que estas redes proliferen. El grupo también sugirió ofrecer educación y recursos para ayudar a prevenir la reincidencia cada vez que se prohíben las cuentas por violaciones a la seguridad infantil.

Si bien la UE exige respuestas de Meta, los investigadores recomiendan una aplicación más estricta de las plataformas, que en muchos sentidos están más equipadas para vigilar el problema que la aplicación de la ley real.

Meta ha prometido continuar reforzando la aplicación. “Estamos comprometidos a continuar nuestro trabajo para proteger a los adolescentes, obstruir a los delincuentes y apoyar a las fuerzas del orden para llevarlos ante la justicia”, dijo el portavoz de Meta a Ars.

Sin embargo, Levine le dijo al Journal que se necesita más urgencia porque los esfuerzos de Meta hasta ahora han sido «inaceptables». “Apriete el freno de emergencia”, dijo Levine al WSJ. “¿Valen los beneficios económicos los daños a estos niños?”

Fuente: arstechnica

No olvides compartir....