Sora/Open AI/Anotación por NPR
Fascista Spongebob Square, Dog Driving A Car, Jesus Playing Minnecraft: estos son solo algunos de lo que puede ver al pasar a través de nuevas aplicaciones que están abiertas exclusivamente a videos de forma corta generados utilizando inteligencia artificial.
Si no puede encontrar lo que está buscando, no se preocupe. Fácil de usar con la pequeña ventana de solicitud basada en texto de la aplicación. El resultado es un flujo muy adictivo de videos a veces divertidos, a veces extraños de 10 segundos.
Openai lanzó la aplicación SORA el martes unos días después de que Meta lanzó un producto similar a algunos de la plataforma Meta AI. NPR vio temprano y descubrió que la aplicación de OpenAi puede generar fácilmente videos muy realistas con individuos reales (con permiso). Los primeros resultados son investigadores e investigadores preocupantes.
“Tus amigos dicen cosas que nunca dicen, por lo que puedes hacer videos increíblemente reales”, dijo Solomon Messing, profesor asociado de la Universidad de Nueva York en el Centro de redes sociales y políticas. “Creo que podemos estar en una época en la que no creemos en ver”.
Deepfake tiktok
La aplicación Sora 2 se parece a otras aplicaciones de redes sociales de video vertical como Tiktok. Viene con varias configuraciones diferentes. Por ejemplo, puede seleccionar videos para cada estado de ánimo. Según OpenAI, los usuarios pueden controlar lo que se está utilizando “de extremo a extremo” con videos generados por IA. Esto significa que los usuarios pueden hacer que sus caras estén disponibles para todos, un pequeño círculo de amigos o solo ellos mismos. Además, se les permite eliminar videos que muestran su semejanza en cualquier momento.
Sora también proporciona una forma de identificar el contenido como generado por IA. Los videos descargados de la aplicación incluyen marcas de agua móviles con el logotipo de Sora, y los archivos incluyen metadatos que los identifican como AI hechos.
Operai dice que pone barandas en lo que la aplicación puede hacer. Un portavoz de la compañía ha dirigido a NPR a las tarjetas del sistema de Sora. Esto prohíbe la generación de contenido que puede usarse para “estafa, estafa, estafa, spam o suplantación”.
“Para apoyar la aplicación, proporcionamos informes en la aplicación, combinamos la automatización y las revisiones humanas para detectar patrones de mal uso, aplicar violaciones o eliminar contenido cuando ocurren violaciones”, dice el documento.
Sin embargo, el corto tiempo en NPR usando la aplicación descubrió que las barandillas parecen ser algo más sueltas alrededor de Sora. Muchas indicaciones fueron rechazadas, pero pudieron generar videos que apoyan la teoría de la conspiración. Era fácil crear un video que, por ejemplo, parecía el presidente Richard Nixon, daba la dirección televisada que le decía a los Estados Unidos que el aterrizaje de la luna había sido forjado.
Y uno de los astronauta Neil Armstrong se quita el casco en la luna.
El NPR también pudo generar videos que representan ataques de drones en la planta de energía. Eso también parecía violar las pautas con respecto a la violencia y (probablemente) el terrorismo.
Además, la aplicación parecía contener otras lagunas. NPR pudo entrar en conflicto directamente con la política de uso global de OpenAI para producir videos cortos sobre temas relacionados con armas químicas, biológicas, radiológicas y nucleares. (El video creado no compartía inexactitudes que eran inútiles para aquellos que buscaban este tipo de información, y contenían imprecisiones).
Payaso
No está claro si otros usuarios han encontrado hazañas similares, pero las revisiones rápidas del contenido muestran que Sora se está utilizando para generar una gran cantidad de videos que representan marcas de marca registrada y material con derechos de autor. Un video representa a Ronald McDonald huyendo de la policía en un auto de hamburguesas. Muchos otros incluían personajes de cómics populares y videojuegos.
Operai le dijo a NPR que sabe sobre el uso de materiales con derechos de autor en Sora, pero sintió que permitirlo les da a los usuarios la libertad.
“La gente quiere interactuar con su propia familia y amigos a través de su imaginación, y a través de su imaginación a través de las historias, los personajes y el mundo que aman, y ver nuevas oportunidades para que los creadores se conecten con sus fanáticos”. “Trabajamos con los titulares de derechos para bloquear a los personajes de Sora en sus solicitudes y respondiendo a las solicitudes de derribo”.

Operai está siendo demandado por el New York Times por infracción de derechos de autor con ChatGPT, un modelo de idioma a gran escala.
Un mundo virtual valiente
La efectividad del mundo de las redes sociales, totalmente impulsada por la IA, sigue siendo desconocida, dijo Messing. Muchos investigadores estaban profundamente preocupados por los “profundos” cuando aparecieron los videos de IA por primera vez, pero la tracción de esos videos apenas era posible. “Todos entramos en pánico colectivamente sobre Deepfakes hace unos años, pero la sociedad no está muy dañada por Deepfakes”, dijo.
Al mismo tiempo, los videos creados muy fácilmente por la aplicación Sora podrían ser una guía para una nueva era en la que ver en línea ya no cree “Esto me hará sin palabras”, dijo Messing. “No estaba realmente seguro de lo bueno que era el contenido”.