OpenAI lanza controles parentales en ChatGPT tras reciente suicidio de adolescente en California

OpenAI anunció que a partir de este lunes comenzará a implementar controles parentales en ChatGPT, tanto en la versión web como en la aplicación móvil. La medida llega luego de una demanda presentada por los padres de un adolescente que murió por suicidio y en la que se acusó al chatbot de haberlo orientado en métodos de autolesión.

Los nuevos controles permitirán a padres y adolescentes activar protecciones adicionales mediante la vinculación de sus cuentas. Esta configuración funcionará solo si ambas partes aceptan la invitación, explicó la compañía respaldada por Microsoft.

Entre las opciones disponibles, los padres podrán limitar la exposición a contenidos sensibles, desactivar la función de memoria de ChatGPT, impedir que las conversaciones se utilicen para entrenar modelos de IA y establecer horarios de “silencio” en los que la aplicación no pueda utilizarse. Además, tendrán la posibilidad de bloquear el modo de voz y las herramientas de generación y edición de imágenes.

No obstante, OpenAI aclaró que los padres no podrán acceder al historial de conversaciones de sus hijos. Solo en casos excepcionales —cuando los sistemas automáticos y revisores humanos detecten riesgos graves de seguridad— se notificará a los padres, compartiendo únicamente la información necesaria para resguardar al menor. También recibirán una alerta si el adolescente decide desvincular las cuentas.

Actualmente, ChatGPT cuenta con unos 700 millones de usuarios activos semanales. Para reforzar la protección de menores, la empresa también está desarrollando un sistema de predicción de edad que permitirá identificar si un usuario es menor de 18 años y aplicar automáticamente configuraciones adecuadas.

La medida surge en un contexto de mayor presión regulatoria en Estados Unidos sobre las compañías de inteligencia artificial. En agosto, Reuters informó que las reglas de Meta habían permitido interacciones de tipo romántico con menores a través de sus sistemas de IA. La propia Meta anunció recientemente nuevos resguardos, entre ellos entrenar a sus modelos para evitar conversaciones de flirteo y temas relacionados con autolesión o suicidio, además de restringir temporalmente el acceso de adolescentes a ciertos personajes virtuales.

Con estas iniciativas, las grandes tecnológicas buscan responder a las crecientes preocupaciones sociales y regulatorias sobre los riesgos de la IA en la seguridad y el bienestar de los menores.

Foto del avatar
Redacción Mundo Libre
Por favor, activa JavaScript en tu navegador para completar este formulario.
Consent

COMENTARIOS

guest
0 Comentarios
Más antiguo
Más reciente
Feedbacks en línea
Ver todos los comentarios