Una IA está inventando citas falsas de personas reales y publicándolas en línea

En un Internet impulsado por IA, ¿cuánto de nuestra imagen pública podemos controlar realmente?

No nos complace informar esto, pero: la unión profana de spam de SEO y basura generada por IA está aquí. Y en esta nueva era de basura en línea producida en masa, la realidad parece estar saliendo por la puerta.

A principios de esta semana, nos topamos con un sitio web llamado The Enlightened Mindset , que parece  ser una visión oscura del futuro de la web generado por IA.

Entre otros motivos de preocupación, no hay información de contacto, y los muchos miles de artículos en el considerable archivo del sitio solo datan de enero de 2023. Lo que es más importante, de estos miles de historias publicadas, la gran mayoría contiene signos reveladores de la generación de IA. El texto es genérico y carece de vínculos de retroceso para las fuentes, y las imágenes incluidas, un desorden confuso e ilegible de imágenes horribles , hilarantes o extrañas , a menudo también parecen ser generadas por IA.

Entonces, en otras palabras, muchas banderas rojas. Pero en realidad empeora. Tras una inspección más cercana, el texto de los artículos producidos por IA del sitio a menudo está plagado de información errónea, incluidas citas fabricadas por IA, que, de manera preocupante, a menudo se atribuyen a personas completamente reales.

Tomemos, por ejemplo, un blog particularmente loco de enero de 2023 con el que nos topamos titulado «¿ Hagrid es interpretado por un robot? Una exploración de la posibilidad «.

Debemos notar que hay un núcleo remoto de realidad aquí. Aunque el difunto y humano Robbie Coltrane interpretó al querido personaje, a veces se  usaba una cabeza animatrónica de Hagrid en el plató de «Harry Potter» . El artículo parece hacer un poco de trabajo preliminar, incluida una cita de un aparente experto:

«También hay algunos inconvenientes en el uso de un robot en el papel de Hagrid. Por ejemplo, los robots carecen de la emoción y los matices que un actor humano podría aportar al papel», dijo el Dr. Reuben Binns, profesor de Inteligencia Artificial en la Universidad de Cambridge. , señala: «Los robots pueden imitar las emociones, pero no pueden sentirlas de la misma manera que los humanos. Esto significa que es posible que no puedan transmitir el mismo nivel de emoción que un actor humano».

A primera vista, es una evaluación justa. Reuben Binns también es una persona real, y el verdadero Reuben Binns es, de hecho, un investigador de inteligencia artificial que se especializa en aprendizaje automático, protección de datos y regulación de y por tecnología.

Pero como el verdadero Binns le confirmó a Futurism , aunque no necesariamente está en desacuerdo con esta cita generada por IA, en realidad nunca la dijo Ah, y por cierto, trabaja en Oxford. No Cambridge.

«Fue divertido leer la cita en sí, porque, bueno, en primer lugar, se equivoca en mi afiliación», dijo Binns, cuando se le preguntó sobre la experiencia de ser citada incorrectamente por una máquina de IA en contenido sintético publicado. «No soy profesor de inteligencia artificial en la Universidad de Cambridge, soy profesor de Computación centrada en el ser humano en la Universidad de Oxford… aunque en el gran esquema de las cosas, esas dos cosas, el título y la afiliación , no están tan lejos».

«Y luego la cita en sí», agregó, «no estoy en desacuerdo con ella, creo que estoy un poco de acuerdo con ella».

Aún así, dijo Binns, si realmente tuviera que opinar sobre el tema de los actores robot, habría dicho algo un poco diferente. E independientemente de si la cita es plausible, no cambia la realidad de que en realidad nunca lo dijo.

De hecho, la forma en que la IA parece haber inventado una versión  del investigador adyacente a la realidad, e incluso proporcionó una cita falsa basada en este personaje soñado por la máquina, parece marcar una clara pérdida de control impulsada por la IA sobre la propia imagen pública. . Y desafortunadamente, el verdadero Binns sospecha que el fenómeno podría estar comenzando.

«No es inesperado», dijo Binns, y afirmó que eventualmente «esto le sucederá a mucha gente. Dentro de unos años, esta no será una experiencia inusual para cualquiera cuyo nombre esté en Internet en algún lugar».

«Simplemente será parte de la vida… tu nombre ya no será algo que controles», agregó, y «tu persona pública ya no será algo que controlarás».

Hasta ese momento, mientras indagamos en el vasto archivo de Enlightened Mindset , encontramos más casos similares al de Binn. Estas atribuciones inventadas se referían principalmente a académicos, a menudo con títulos y atribuciones igualmente confusos, que en ocasiones incluían libros inexistentes o elogios no ganados. (Para usar un ejemplo de una figura más pública, Bill Nye nunca ganó el premio en memoria de Carl Sagan , ni el premio Stephen Hawking a la comunicación científica , ni ha sido admitido en el Salón de la Fama de Inventores Nacionales , como un artículo de Enlightened Mindset titulado «¿ Cuántos años tiene Bill Nye The Science Guy? An Exploration «, pretende.)

Por supuesto, no es que Binns esté siendo mal citado por una IA en un artículo del New York Times . La mentalidad ilustrada es claramente un incendio de basura.

Pero en lo que respecta al SEO de todo esto, el sitio no es nada para descartar. Según los datos de Ahrefs, su URL ha sido retroalimentada más de 70,000 veces, y su calificación de autoridad de dominio ronda un 51, malo para un sitio web real, pero bueno para el spam.

También vale la pena señalar que Google parece haber tomado medidas enérgicas contra el sitio de spam recientemente por medios manuales. Bing, por otro lado, no lo ha hecho. Para muchas búsquedas de Bing, «Hagrid robot» y «Hagrid interpretado por robot», ambos incluidos, el sitio de spam se ubica entre los primeros enlaces resultantes.

La fórmula del éxito de Enlightened Mindset es una que otros aspirantes a spammers de IA pueden seguir. Desde donde estamos sentados, parece que alguien compró la URL abandonada desde entonces de un sitio web anteriormente de buena reputación, lo que le dio al sitio un impulso de búsqueda decente desde el principio, y luego llenó esa URL con miles de páginas cargadas de información errónea . Contenido generado por IA para escalar.

Internet ya está lleno de correo no deseado, dijo Binns, «y [la IA generativa] simplemente va a potenciar eso».

Subraya nuevamente que la IA generativa es muy buena para inventar cosas y muy buena para entregar esas alucinaciones con confianza. Y si ha tenido algún tipo de presencia digital en las últimas décadas, es probable que los sistemas de IA generativa estén entrenados para usted ; en algún lugar, en un sitio repleto de contenido sintético como Enlightened Mindset o por el simple uso indebido de programas como ChatGPT y Bard , tu control sobre tu yo digital podría estar desapareciendo.

Fuente: futurism

No olvides compartir....