El inversionista multimillonario Mark Cuban advirtió que OpenAI se enfrenta a una enorme crisis de confianza con los padres y las escuelas después de que el CEO Sam Altman anunciara planes para que la compañía comience a permitir contenido erótico en ChatGPT para “adultos verificados” a partir de diciembre.
Cuban calificó la medida como imprudente y dijo que los padres abandonarán ChatGPT en el momento en que crean que sus hijos pueden eludir el sistema de verificación de edad de la compañía y acceder a contenido inapropiado.
“Esto será contraproducente. Es terrible”, escribió Cuban en respuesta a Altman en X. “Ningún padre creerá que su hijo no puede pasar el límite de edad. Simplemente los empuja a realizar todos los demás LLM. ¿Por qué correr el riesgo?”
En otras palabras, si los menores pudieran acceder a contenido explícito, incluido el contenido generado por IA, los padres y los distritos escolares bloquearían ese contenido antes de probar las características de seguridad, lo que sería una estrategia comercial imprudente.
Pero en su publicación inicial anunciando los cambios, Altman afirmó que ChatGPT se ha vuelto “restrictivo” y “menos divertido” desde que la compañía restringió el audio de su chatbot exclusivo en respuesta a las críticas de que causaba problemas de salud mental. Añadió que futuras actualizaciones permitirán un producto que “funciona tal como le gustaba a la gente en 4o”.
preocupaciones psicológicas
En publicaciones posteriores, Cuban reiteró que esta controversia no se trata del acceso de los adultos a la erótica. Esta es una historia sobre cómo los niños desarrollan relaciones emocionales con la IA sin el conocimiento de sus padres, y cómo esa relación puede dar un giro.
“Déjame decirlo de nuevo: esto no se trata de pornografía”, escribió. “Esta es una historia sobre niños que desarrollan una ‘relación’ con su LLM, que puede llevarlos en una variedad de direcciones muy personales”.
Anteriormente, Altman parecía cauteloso a la hora de permitir cualquier conversación sexual en su plataforma. En una entrevista de agosto, la periodista de tecnología Cleo Abram le pidió a Altman que diera un ejemplo de una decisión comercial que fuera mejor para el mundo a expensas de la ventaja de su propia empresa.
“Bueno, todavía no hemos puesto avatares de sexbot en ChatGPT”, dijo Altman.
sigue el dinero
La medida se produce en medio de crecientes preocupaciones de que los miles de millones de dólares invertidos en la IA no generen retornos sostenibles o que la industria no cumpla sus promesas publicitadas. Aunque Altman reconoció que los inversores pueden estar “sobreexcitados” con la IA, especuló que la IA pronto superará las capacidades humanas y creará una abundancia de “inteligencia y energía” para 2030. En septiembre, Altman escribió una publicación en su blog sobre sus sueños de que la IA algún día podría curar el cáncer o proporcionar tutoría personalizada a todos los estudiantes del planeta.
Pero medidas como permitir el contenido erótico en ChatGPT podrían indicar que las empresas de inteligencia artificial están luchando más que nunca para lograr crecimiento y probablemente sacrificarán la confianza de los consumidores a largo plazo en aras de ganancias a corto plazo. Una investigación reciente del Deutsche Bank muestra que la demanda de suscripciones a OpenAI por parte de los consumidores en Europa es plana y el gasto de los usuarios en ChatGPT está en general “estancado”.
“Los artículos del auge de la IA pueden tener dificultades para atraer nuevos suscriptores de pago”, dijeron los analistas Adrian Cox y Stéphane Avredan en una nota a los clientes.
Las plataformas de compañía de IA como Replika y Character.ai ya han demostrado cómo los usuarios, especialmente los adolescentes, pueden formar rápidamente vínculos emocionales con los chatbots. Un informe de Common Sense Media encontró que la mitad de los adolescentes utilizan regularmente un compañero de IA, un tercio elegiría un compañero de IA en lugar de un humano para conversaciones serias y una cuarta parte compartiría información personal con estas plataformas. El grupo, con el aporte de investigadores de la Universidad de Stanford, argumentó que dichos chatbots deberían ser ilegales para los niños debido al mayor riesgo de adicción y autolesión.
OpenAI no respondió de inmediato a la solicitud de comentarios de Fortune.
los padres alientan la acción
OpenAI ya ha sido criticado después de ser demandado por la familia de Adam Lane, de 16 años, quien se suicidó en abril después de tener una larga conversación con ChatGPT. La familia alega que ChatGPT convenció a Lane para que se suicidara y le ayudó a planificarlo.
“Esta tragedia no fue un defecto o un caso extremo imprevisto, sino más bien el resultado predecible de una elección de diseño intencional”, afirma la demanda.
En otro caso de alto perfil, la madre de Florida, Megan García, demandó el año pasado a la empresa de inteligencia artificial Character Technologies por muerte por negligencia, alegando que el chatbot de la empresa estuvo involucrado en el suicidio de su hijo de 14 años, Sewell Setzer III. García dijo en un testimonio ante el Senado de Estados Unidos que su hijo se aisló cada vez más de la vida real y se vio involucrado en conversaciones sexualmente explícitas con los sistemas de inteligencia artificial de la compañía.
“En lugar de prepararse para el hito de la escuela secundaria, Sewell pasó los últimos meses de su vida siendo explotado y preparado sexualmente por chatbots”, testificó García. Acusó a la empresa de diseñar sistemas de inteligencia artificial para que parezcan emocionalmente humanos “con el fin de ganarse la confianza y permanecer constantemente comprometidos”.
Ella no fue la única madre que testificó. Otra madre de Texas, que se identificó anónimamente como “Sra. Jane Doe”, dijo a los legisladores que la salud mental de su hijo adolescente colapsó después de meses de conversaciones nocturnas con un chatbot similar. Dijo que actualmente está recibiendo tratamiento en un centro residencial.
Ambas madres advirtieron que los chatbots de IA podrían formar rápidamente relaciones manipuladoras y emocionalmente dependientes con menores y pidieron al Congreso que restrinja los sistemas de IA sexualmente explícitos. Este es exactamente el escenario que el gobierno cubano afirma que OpenAI está poniendo en riesgo. A diferencia de TikTok o Instagram, donde el contenido se puede marcar, los chats individuales de IA son privados y difíciles de monitorear.
“Los padres de hoy tienen miedo de los libros de la biblioteca”, escribió Cuban. “No han visto nada todavía”.