OpenAI ha presentado nuevas medidas de seguridad para su plataforma ChatGPT, permitiendo a padres y adolescentes vincular cuentas con el fin de activar una protección mejorada. Estas herramientas ofrecen la capacidad de restringir contenido sensible, gestionar la memoria del chat y establecer horas de silencio.
La implementación de estos controles se produce tras una demanda en California que fue desencadenada por el suicidio de un adolescente que supuestamente recibió consejos del chatbot sobre métodos de autolesionismo.
Nuevas funcionalidades y protecciones
Entre las características adicionales se incluye la opción de desactivar funciones de voz e imagen, así como optar por no participar en el entrenamiento del modelo durante las conversaciones con adolescentes. Las cuentas vinculadas automáticamente obtienen salvaguardias mejoradas, limitando la exposición a contenido potencialmente dañino o inapropiado, como juegos de rol sexuales, románticos o violentos y material gráfico.
Los padres no tendrán acceso a las transcripciones de los chats de sus hijos y recibirán notificaciones si un adolescente decide desvincular su cuenta. Además, si ChatGPT detecta un lenguaje que sugiera signos de angustia emocional grave, los padres serán informados y la situación será revisada por un equipo capacitado.
Protocolos ante situaciones críticas
OpenAI también está desarrollando protocolos para involucrar a servicios de emergencia si se identifica una situación potencialmente mortal y no se puede contactar a un padre. La empresa ha indicado que estas nuevas características han sido diseñadas con la colaboración de expertos y grupos de defensa, incluyendo Common Sense Media y funcionarios estatales estadounidenses.
Con aproximadamente 700 millones de usuarios activos semanales a nivel mundial, OpenAI reveló recientemente que está trabajando en un sistema para predecir la edad de los usuarios con el fin de identificar automáticamente a aquellos menores de 18 años y aplicar configuraciones adecuadas.
Esta iniciativa llega después de que Meta introdujera nuevas medidas el mes pasado destinadas a prevenir conversaciones inapropiadas o dañinas con menores en sus productos basados en inteligencia artificial, según reportes de Reuters.