Sam Altman, director ejecutivo de OpenAI Inc., durante una gira de prensa por el centro de datos Stargate AI en Abilene, Texas, EE. UU., el martes 23 de septiembre de 2025.
Kyle Grillot | Bloomberg | Imágenes falsas
El director ejecutivo de OpenAI, Sam Altman, dijo el miércoles que la compañía “no es la policía moral elegida por el mundo” luego de la reacción violenta por su decisión de aliviar las restricciones y permitir contenido como el erotismo dentro del chatbot ChatGPT.
La startup de inteligencia artificial ha ampliado sus controles de seguridad en los últimos meses mientras enfrenta un mayor escrutinio sobre cómo protege a los usuarios, especialmente a los menores.
Pero Altman dijo en una publicación en X el martes que la mayoría de las restricciones podrían “relajarse de manera segura” porque OpenAI ha introducido nuevas herramientas que ahora pueden aliviar “problemas graves de salud mental”.
Altman anunció en diciembre que permitiría más contenido, incluido contenido erótico, en ChatGPT para “adultos verificados”.
Altman intentó aclarar la medida en una publicación en X el miércoles, diciendo que OpenAI se toma muy en serio el “principio de tratar a los usuarios adultos como adultos”, pero aún así no permitirá “nada que sea perjudicial para los demás”.
“Así como la sociedad distingue entre otros límites apropiados (por ejemplo, películas con clasificación R), queremos hacer lo mismo aquí”, escribió Altman.
Estas publicaciones están en desacuerdo con los comentarios que Altman hizo durante una aparición en un podcast en agosto. Altman dijo que estaba “orgulloso” de la capacidad de OpenAI para resistir ciertas características como los “avatares de sexbot” que podrían aumentar la participación en ChatGPT.
“Hay muchas cosas a corto plazo que realmente impulsan el crecimiento y los ingresos, pero están muy desconectadas de los objetivos a largo plazo”, afirmó Altman.
En septiembre, la Comisión Federal de Comercio inició una investigación sobre OpenAI y otras empresas de tecnología, alegando que los chatbots como ChatGPT pueden dañar a niños y adolescentes. OpenAI también está involucrado en una demanda por muerte por negligencia con una familia que culpó a ChatGPT por el suicidio de su hijo adolescente.
En los meses posteriores a la investigación y la demanda, la empresa tomó varias acciones públicas para fortalecer la seguridad de ChatGPT. La compañía lanzó un conjunto de controles parentales a fines del mes pasado y está creando un sistema de predicción de edad que aplica automáticamente configuraciones adaptadas para adolescentes a usuarios menores de 18 años.
OpenAI anunció el martes que ha convocado un consejo de ocho expertos para brindar información sobre cómo la IA afecta la salud mental, las emociones y la motivación de los usuarios. Altman publicó el mismo día sobre el objetivo de la compañía de aliviar las restricciones, lo que generó confusión y una rápida reacción en las redes sociales.
Altman dijo que “explotó” mucho más de lo que esperaba.
Su publicación también atrajo la atención de grupos de defensa como el Centro Nacional sobre Explotación Sexual, que pidió a OpenAI que revocara su decisión de permitir el contenido erótico en ChatGPT.
“Los chatbots de IA sexual son intrínsecamente peligrosos y plantean riesgos reales para la salud mental debido a su intimidad artificial, todo ello dentro del contexto de estándares de seguridad de la industria mal definidos”, dijo Hayley McNamara, directora ejecutiva de NCOSE, en un comunicado el miércoles.
Si tiene pensamientos suicidas o está angustiado, comuníquese con Suicide & Crisis Lifeline (988) para obtener apoyo y asistencia de un consejero capacitado.
MIRAR: La IA no está en una burbuja, la valoración parece “bastante razonable”, dice BlackRock
