Una nueva encuesta de la firma de seguridad de datos Imperva informa que no es humano para la mitad de todo el tráfico de Internet en 2024, con un 37% de bots malos, un 5% más desde 2023.
MINNEAPOLIS – El pasado julio, un asesino intentó tomar la vida del presidente Donald Trump en un rally de Pansylvania.
Dentro de las 48 horas, la teoría de la conspiración fue aumentada en las redes sociales. Uno de ellos sugirió que Trump organizó el caso para aumentar su apoyo a las elecciones.
Cyabra, una compañía de detección de desinformación de inteligencia artificial, ha analizado miles de perfiles relacionados con la historia. Afirman que el 45% de ellas son cuentas falsas destinadas a difundir información errónea, alcanzando 595 millones de personas potenciales.
“A los pocos minutos de ese intento, vimos muchas cuentas falsas que conducían una historia específica y completamente falsa, pero lograron participar en la conversación”, dijo Rafi Mendelsohn, director de marketing de Cyabra.
Cyabra usa AI para atrapar bots analizando el comportamiento y el contenido de las cuentas de las redes sociales en tiempo real para determinar si son reales o falsos. Mendelsohn dice que usa parámetros de comportamiento entre 600 y 800 al analizar una cuenta.
Prometiendo “tratar de derrotar a Spambots y morir”, Elon Musk contrató a Saibura en 2021 e investigó lo malo que fue el problema en Twitter antes de comprar la plataforma.
Cyabra concluyó que el 11% de los usuarios de Twitter son cuentas de spam o bot.
Ahora que X está bajo la propiedad de Mask, la investigación de Cyabra afirma que una de cada cinco cuentas que interactúa con el puesto de 2024 relacionado con las elecciones de Musk es falso.
Múltiples informes muestran que la actividad de Bot en las redes sociales es generalmente más refinada.
“La adopción de herramientas de IA de actores maliciosos ha hecho que la creación de cuentas falsas sea mucho más efectiva y eficiente”, dijo Mendelsohn. “Es realmente una situación de centro comercial”.
Los bots hoy vienen en todas las formas e intentos.
Hay los llamados bots “buenos” como agentes de servicio al cliente de IA y bots de marketing, apoyando a las personas y las empresas con tareas.
Y luego están los bots “malos” diseñados para ataques maliciosos en su identidad, su dinero o su forma de pensar.
Una nueva encuesta de la firma de seguridad de datos Imperva muestra que más de la mitad de todo el tráfico de Internet en 2024 era humano, con un 37% de bots malos, un 5% más desde 2023.
“Están cambiando la estructura de la sociedad”, dijo Hagai Shechter, CEO de Furaudlogix. “Están cambiando la forma en que pensamos sobre ciertas cosas, cómo pensamos en ciertas cosas”.
Furaudlogix monitorea la actividad de Internet para alertar a los anunciantes si hacer clic en un anuncio o sitio es de una persona real.
Schector dice que los malos bots han madurado, pero ahora pueden pensar, aprender y charlar por sí mismos.
“Imagina que estás en una habitación con 1,000 personas y alguien dice algo y toda la multitud comienza a aplausar. Ese tipo de cosas afecta cómo te sientes al respecto.
Prueba de Kare 11
¿Alguna vez te has desplazado en las redes sociales y pensaste: “Tiene que convertirse en un bot”?
Recientemente me he estado preguntando cómo se ve el bot y cuántas de estas cuentas falsas hay.
Le pedí a Cyabra que usara el software para analizar varias publicaciones recientes de Kare 11 en cientos de comentarios.
Esto se encuentra en una publicación sobre X sobre la deportación de inmigrantes condenados por fraude, y el análisis de Cyabra encontró 225 cuentas fraudulentas. Esto significa que está más seguro de que el 36% de todos los comentarios sobre su publicación son bots.
Su informe supuestamente expresó sentimientos negativos hacia los delincuentes deportados o los sentimientos positivos hacia el hielo y la aplicación de la ley.
En la segunda publicación sobre los objetivos que se obtienen del Desfile del Orgullo Twin City, el informe de Cyabra identificó el 32% de las cuentas de comentarios como falsas.
Proporcionaron algunos ejemplos de cuentas de BOT sospechosas para comentar sobre la publicación.
Cuentas con manijas como “anonwhitedude2”, “robocop198011” y “whynot28419645” no tienen fotos, ni nombres en sus perfiles y pocos seguidores. Anonwhitedude2 tenía 16 seguidores. La cuenta fue creada en enero de 2024 y con frecuencia repostaba el contenido racista, antisemitismo, pro-cristiano y pro-Trump. Aunque no había publicaciones originales en su perfil, a menudo respondía a publicaciones políticas y también respondía a las publicaciones de los deportes locales y las películas de los 80.
Nos comunicamos con las ocho cuentas que Cyabra sugirió que era un bot. Mi cuenta anonwhitedude2 fue eliminada pronto.
Sin embargo, no todos los expertos están de acuerdo en que estos son bots.
El profesor Darren Linville, codirector del centro forense de medios de la Universidad de Clemson, dijo:
También fue contratado por el equipo legal de Elon Musk en 2021 para investigar los bots de Twitter.
Linvill cree que las estimaciones de BOT de Cyabra están infladas.
“Le interesa exagerar el problema. Te dieron números. No te dieron ningún apoyo real para ese número. Dijeron que estas cuentas eran falsas, pero al final del DA no puedes ver nada que no puedas ver”, dijo Linville.
En respuesta a la afirmación, Cyabra dijo que respalda ese número.
“Con los equipos de informes de inteligencia demócrata en todo el mundo, los gobiernos han avanzado durante mucho tiempo para probar la precisión de sus servicios y capacidades de detección”, dijo Mendelsohn.
Ambos expertos están de acuerdo en que los problemas están en aumento.
¿Quién está detrás del bot?
Según Linvill, las redes sociales tienen tres tipos básicos de actividades de BOT: especialistas en marketing, estafadores e influyentes políticos.
“El mayor número de bots es creado por diferentes tipos de compañías de marketing que crean una gran cantidad de cuentas que existen para promover otras cuentas”, dijo Linvill.
Su investigación identificó una red de bots durante las elecciones de 2024, creando más de 130,000 puestos, apuntando a cinco carreras del Senado de los Estados Unidos, una carrera de la Cámara de Representantes y una elección presidencial.
“No es ilegal. Está en contra de la política de la plataforma. El simple acto de crear una cuenta falsa y participar en propaganda política sobre la izquierda o la derecha es completamente legal”, dijo Limville, a menos que la persona que crea la propaganda es miembro de un estado extranjero.
Le preguntamos a Linvill si líderes como X, Facebook, Instagram y Tiktok podrían evitar que todos los bots se creen en la plataforma.
Dijo que no podrían hacerlo y que no querrían hacer eso.
“Una razón por la que es difícil es porque hay muchos bots que existen legalmente. Quizás NBC ejecuta múltiples bots para sacar contenido. De hecho, lo sé. La plataforma crea políticas que promueven la presencia de más cuentas para que la plataforma sea más popular”, dice Linvill.
Para la gran pregunta, ¿cuántos bots hay en las redes sociales? Linvill dijo que hoy no hay estimaciones confiables ya que los metadatos de la cuenta no son públicos.
Me puse en contacto con Meta y X para comentar sobre este informe. No hubo respuesta.