El desarrollador de ChatGPT OpenAi anunció nuevas características de seguridad para adolescentes el martes. Esto incluye la validación de los sistemas de edad y la identificación en algunos países.
En una publicación de blog, el CEO de OpenAI, Sam Altman, explicó la lucha por equilibrar las prioridades de libertad y seguridad de OpenAi, diciendo: “Priorizamos la seguridad sobre la privacidad y la libertad de los adolescentes. Esta es una tecnología nueva y poderosa y creemos que los menores necesitan una gran protección”.
Altman escribe que la compañía está trabajando para construir un sistema que clasifique automáticamente a los usuarios en una de las dos versiones separadas de ChatGPT. Uno es para adultos mayores de 18 años.
“Si tiene alguna duda, juegue con seguridad y, por defecto, tendrá una experiencia menor de 18 años”, escribe Altman. “En algunos casos, pedimos una identificación. Sabemos que este es un compromiso en la privacidad de los adultos, pero creemos que es una compensación valiosa”.
La compañía hizo el anuncio horas antes de la audiencia del Comité Judicial del Senado, donde se espera que comience una audiencia sobre el daño potencial de los chatbots de IA. El mes pasado, la familia demandó a Openai, diciendo que ChatGPT sirvió como un “entrenador suicida” y condujo a la muerte de su hijo.
En otra publicación de blog, la compañía dijo que liberaría los controles de los padres a fin de mes, permitiendo a los padres responder a sus hijos a Chatgpt y decirles cómo ajustar la configuración como la memoria y los tiempos de apagón.
Altman también dijo que ChatGPT no está destinado a personas menores de 12 años, pero ChatBot actualmente no tiene salvaguardas para evitar que los niños lo usen. Operai no respondió de inmediato a las solicitudes de comentarios sobre los niños que usan sus servicios
Altman demostró que los argumentos del suicidio no deberían ser completamente censurados de ChatGPT. Se supone que el chatbot “no debe proporcionar instrucciones sobre cómo suicidarse de manera predeterminada, pero si está ayudando a un usuario adulto a escribir una historia ficticia sobre un suicidio, el modelo debería ayudar con esa solicitud”, dijo.
Si el programa de estimación de edad de OpenAI expresa su ideación suicida, la compañía “intentará contactar a los padres del usuario y, si no es posible, a las autoridades de contacto en caso de daño inmediato”, escribió.
“No creo que nadie esté de acuerdo con estas compensaciones, pero dado el conflicto, es importante explicar nuestras decisiones”, escribió Altman a X.