"Enjambres" de bots de IA podrían invadir pronto las redes sociales, propagando información falsa y hostigando a usuarios reales, según sugiere un nuevo estudio revisado por pares publicado en la revista Science.

El estudio, titulado "Cómo los maliciosos enjambres de IA pueden amenazar la democracia", advirtió que los enjambres de IA jugarán un nuevo papel en la guerra de la información, imitando el comportamiento humano y así propagando información falsa que podría socavar la democracia y el pensamiento libre.

El instinto humano es a menudo de mentalidad de rebaño; ver a una gran comunidad en línea en la que confías fortaleciéndose en torno a ciertos temas puede influir en tu propia opinión a medida que sigues al rebaño.

El nuevo estudio sugiere que en un futuro próximo, el rebaño podría no ser liderado por una comunidad de la vida real, sino por un enjambre de IA que opera en nombre de un individuo desconocido, un partido político o un actor estatal.

"Los humanos, en general, son conformistas," explicó el coautor del artículo, Jonas Kunst. "A menudo no queremos estar de acuerdo con eso, y las personas varían hasta cierto punto, pero si todo lo demás es igual, tendemos a creer que lo que hace la mayoría tiene cierto valor. Eso es algo que puede ser fácilmente aprovechado por estas multitudes."

. (credit: SHUTTERSTOCK)
. (credit: SHUTTERSTOCK)

Aumento de la prevalencia de bots en línea

En los últimos años, los foros en línea han estado llenos de bots automatizados; cuentas no humanas que siguen las órdenes de software informático representan más del 50% de todo el tráfico web, aunque los bots actuales solo son capaces de realizar tareas simples y repetitivas y suelen ser fáciles de detectar.

La próxima generación de enjambres de IA será más compleja.

Coordinados por grandes modelos de lenguaje (LLMs), el sistema detrás de chatbots como ChatGPT y Gemini de Google, los enjambres serán lo suficientemente sofisticados como para adaptarse a diferentes comunidades en línea, formar diferentes personalidades y volverse virtualmente indetectables.

Los enjambres podrían usarse para promover ciertas agendas políticas y acosar a las personas que intentan socavar la narrativa de la IA o que no se dejan llevar por la multitud. Los investigadores argumentaron que podrían usarse para imitar a una multitud enfurecida, atacar a un individuo disidente y expulsarlo de la plataforma.

El estudio no proporcionó un cronograma para la invasión de enjambres de inteligencia artificial, pero señala que serían difíciles de detectar, por lo que se desconoce la magnitud de su presencia actual.

Los enjambres podrían contener miles, incluso millones de agentes de IA, pero no se trata solo de la cantidad, explicó el autor principal, Daniel Schroeder, señalando que "cuanto más sofisticados sean estos bots, menos necesitarás en realidad".

Cómo protegerse contra la nueva generación de bots de IA

Los agentes de IA tienen ventaja sobre sus homólogos humanos, ya que pueden publicar las 24 horas del día, todos los días del año, hasta que su narrativa se imponga. Mientras que los usuarios reales tienen vidas que vivir, el único propósito de la IA es impulsar su narrativa, y no necesita descansos; su "guerra cognitiva" puede convertir la perseverancia en un arma contra los limitados esfuerzos humanos.

Los investigadores esperan que las empresas respondan a los enjambres con una mejor autenticación de cuentas; estaban preocupados de que esto pueda desalentar la disidencia política en países donde las personas dependen del anonimato para expresarse en contra de sus gobiernos.

También propusieron otras defensas, como escanear el tráfico en vivo en busca de patrones anómalos que pudieran indicar enjambres de inteligencia artificial, y establecer un "Observatorio de Influencia de IA" para monitorear y responder a la amenaza de enjambres.

"Con una certeza razonable estamos advirtiendo sobre un desarrollo futuro que realmente podría tener consecuencias desproporcionadas para la democracia, y necesitamos comenzar a prepararnos para eso", dijo Kunst.