Yoel Roth, anteriormente director de confianza y seguridad en Twitter, comparte preocupaciones durante el partido sobre el futuro de la red social abierta y la capacidad de combatir la información errónea, el spam y otro contenido ilegal, como el material de abuso sexual infantil (CSAM). En una entrevista reciente, Roth estaba preocupado por la falta de herramientas de moderación disponibles para Fediverse. Esta es una red social abierta que incluye aplicaciones como Mastodon, Threads y Pixed y Open Platforms como Bluesky.
También recordó los momentos clave de confianza y seguridad en Twitter, como las decisiones para prohibir al presidente Trump de la plataforma, las decisiones que se desactivan mal de las granjas de bots rusas, y los usuarios de Twitter, incluido el CEO Jack Dorsey, fueron víctimas de los bots.
En la revolución del podcast usando @rabble, Ross señaló que los esfuerzos para construir comunidades en línea de manera más democrática en la red social abierta también son los menos recursos cuando se trata de herramientas de moderación.
“… Ver a Mastodon, mirar otros servicios basados en ActivityPub (el protocolo), mirar a Bluesky desde el principio, mirar hilos como Meta comenzó a desarrollar, fue que muchos de los servicios que proporcionaron los servicios más desafiantes al control comunitario les dieron las herramientas más técnicas para permitirles administrar las políticas.
También vio “un retroceso bastante grande” en la red social abierta con respecto a la transparencia y la legitimidad de las decisiones que Twitter tuvo una vez. Quizás muchos en ese entonces se opusieron a la decisión de Twitter de prohibir a Trump, pero la compañía explicó su justificación para hacerlo. Actualmente, los proveedores de redes sociales están muy preocupados por evitar que los malos actores jueguen juegos, por lo que rara vez se explican a sí mismos.
Por otro lado, muchas plataformas sociales abiertas tienen usuarios que no reciben notificaciones sobre publicaciones prohibidas, y las publicaciones simplemente desaparecen. No había signos de que las publicaciones estuvieran presentes.
“No culpamos a las nuevas empresas como nuevas empresas o nuevos software porque carecen de todas las campanas y silbatos, pero lo que hicimos es dar un paso atrás al gobierno si el punto general del proyecto era aumentar la legitimidad democrática de la gobernanza. Ross es una maravilla.
Eventos de TechCrunch
San Francisco
|
27-29 de octubre de 2025
La economía de la moderación
También planteó preguntas sobre la economía de la moderación y cómo el enfoque del gobierno federal en este aspecto aún no es sostenible.
Por ejemplo, una organización llamada IFTA (fideicomisos y seguridad federales independientes) estaba trabajando para construir herramientas de moderación de Fediverse, proporcionando a Fediverse acceso a herramientas para combatir CSAM, pero a principios de 2025 se tuvieron que cerrar muchos proyectos.
“Lo vi llegar hace dos años. Iftus lo vio venir. Todos los que trabajan en este campo son principalmente voluntarios del tiempo y el esfuerzo. Eso es tan lejos, porque en algún momento las personas tienen familias y necesitan acumular costos cuando necesitan administrar modelos de ML para detectar ciertos tipos de contenido malo”. Todo se vuelve costoso y la economía de este enfoque coalicionado para la confianza y la seguridad nunca se ajustan perfectamente. Y en mi opinión, aún no lo es “.
Mientras tanto, Bluesky elige contratar moderadores y emplearlos con confianza y seguridad, pero se limita a mitigar sus propias aplicaciones. Además, proporcionan herramientas que permiten a las personas personalizar sus propias preferencias de moderación.
“Están haciendo este trabajo a gran escala. Obviamente hay margen de mejora. Quiero ver que son un poco más transparentes. Pero básicamente, están haciendo lo correcto”, dijo Ross. Sin embargo, a medida que los servicios se descentralizan más, señala, enfrenta preguntas sobre cuándo Bluesky es una responsabilidad de proteger a las personas en lugar de las necesidades de la comunidad.
Por ejemplo, el uso de Doxxing puede no saber que su información personal se está difundiendo en línea debido a la forma en que configura su herramienta de moderación. Sin embargo, incluso si el usuario no está en la aplicación principal de Bluesky, aún debería ser responsabilidad de otra persona hacer cumplir estas protecciones.
Dónde dibujar líneas de privacidad
Otro problema que enfrenta Fediverse es que la decisión de apoyar la privacidad puede frustrar los intentos de mitigar. Twitter no ha guardado datos personales, pero no era necesario, pero cuando accedimos a servicios, identificadores de dispositivos, etc., recopilamos la dirección IP del usuario y más. Esto ayudó a la empresa cuando necesitaba hacer un análisis forense de cosas como las granjas troll en Rusia.
Mientras tanto, los administradores de Fediverse no pueden recolectar los registros necesarios o verlos si creen que son una violación de la privacidad del usuario.
Sin embargo, la realidad es que sin datos es difícil determinar quién es realmente un bot.
Roth ha proporcionado varios ejemplos desde la era de Twitter, señalando que los usuarios tienen más probabilidades de responder a las diferencias de opinión diciendo “bots”. Él dice que estableció una alerta primero, revisó manualmente todas estas publicaciones, y analizó cientos de casos de acusaciones de “bot”, pero nadie tenía razón. Incluso el cofundador de Twitter y ex CEO Jack Dorsey ha sido víctima y retuiteó una publicación de un actor ruso que afirmó ser Crystal Johnson, una mujer negra de Nueva York.
“Al CEO de la compañía le gustó este contenido y lo amplificó y no tenía forma de saber como usuario que Crystal Johnson era de hecho un troll ruso”, dijo Ross.
El papel de la IA
Uno de los temas oportunos de la discusión fue cómo la IA está cambiando el paisaje. Ross hizo referencia a la reciente investigación de Stanford. Esto encuentra que en los contextos políticos, los modelos lingüísticos a gran escala (LLM) pueden incluso ser más persuasivos que los humanos cuando se ajustan adecuadamente.
En otras palabras, una solución que se basa únicamente en el análisis de contenido en sí no es suficiente.
En cambio, las empresas necesitan rastrear otras señales de comportamiento. Sugirió que si algunas entidades tienen múltiples cuentas, deberían usar la automatización para publicar o publicar en un día extraño que corresponde a diferentes zonas horarias.
“Estas son señales de comportamiento potenciales incluso para contenido verdaderamente persuasivo, y creo que ahí es donde tienes que comenzar a hacer esto”, dijo Ross. “Si estás comenzando con el contenido, estás jugando contra los principales modelos de IA y ya estás perdiendo”.