OpenAI ha anunciado que actualizará la página de personalización de su chatbot de Inteligencia Artificial (IA) ChatGPT, agrupando las instrucciones personalizadas y los recuerdos en un mismo apartado para facilitar la configuración de las conversaciones según las necesidades de los usuarios.
El chatbot dispone de una página de personalización desde la que ofrece distintas opciones para que los usuarios definan cómo quieren que les responda la IA en sus conversaciones, especificando el tono y estilo que debe tener, así como la personalidad.
Quién usa ChatGPT y para qué, según OpenAI
Ahora, OpenAI ha actualizado esta página de personalización para facilitar las configuraciones de ChatGPT en cuanto a sus interacciones con los usuarios, al unificar la configuración de personalidad, las instrucciones personalizadas y los recuerdos, en una misma pestaña.
Así lo ha detallado el director ejecutivo de OpenAI, Sam Altman, en una publicación en la red social X, donde ha especificado que se trata de una actualización que estará disponible para todos los usuarios en los “próximos días”.
We have updated ChatGPT’s personalization page: personality configuration, custom instructions, and memories are now all in one place. Going live over the next couple of days. pic.twitter.com/CAeBpP5j12
— Sam Altman (@sama) September 16, 2025
Con este cambio, los usuarios pueden gestionar de forma sencilla y accesible en una misma página todas las cuestiones relacionadas con cómo interactuar con el chatbot, ya que, a las configuraciones de su personalidad, como el estilo de las conversaciones, se le agrega la información que debe recordar del usuario, como su nombre y su profesión.
Identificar adolescentes
OpenAI está trabajando en un nuevo sistema que ayudará a ChatGPT a identificar automáticamente cuando está interactuando con un adolescente o menor de edad, de manera que activará una experiencia acorde a su edad y bloqueará contenido no apto.
La compañía liderada por Sam Altman ha compartido su intención de continuar mejorando la seguridad de todos los usuarios, concretamente, reforzando la protección de los adolescentes con herramientas eficaces, como los controles parentales anunciados recientemente.
Siguiendo esta línea, OpenAI ha anunciado que está desarrollando un sistema con el que podrá identificar si una persona es mayor o menor de 18 años, de manera que adaptará la experiencia en ChatGPT en base a su edad y sus necesidades, cambiando automáticamente la forma en que el chatbot responde a un adolescente de 15 años o a un adulto.
Tal y como lo ha explicado en un comunicado en su blog, cuando se identifique a un usuario menor de 18 años, se le dirigirá automáticamente a “una experiencia de ChatGPT con políticas adaptadas a su edad”. Esto significa que se tomarán acciones que incluyen desde bloquear el contenido sexual explícito, hasta “en casos excepcionales de angustia extrema” la posible intervención de las fuerzas del orden para garantizar la seguridad.
Menor de edad hasta que demuestre lo contrario
En caso de que ChatGPT no esté seguro de la edad del usuario o disponga de información incompleta, optará igualmente por la experiencia de menores de 18 años de cara a garantizar la seguridad en todo momento. Sin embargo, los adultos dispondrán de opciones para demostrar su edad y acceder a las capacidades para mayores de edad.
Estas medidas se unen a los controles parentales diseñados para que las familias gestionen cómo se utiliza ChatGPT en sus hogares. Así, a finales de septiembre los padres podrán vincular su cuenta con la cuenta de su hijo adolescente y establecer reglas de comportamiento para las interacciones con sus hijos.
Igualmente, los padres podrán administrar qué funciones deshabilitar, incluida la memoria y el historial de chat, y establecer horas de inactividad. Además, también recibirán notificaciones cuando el sistema detecte que su hijo se encuentra en un momento grave de angustia.
Con todo ello, cabe recordar que fue a finales del pasado mes de agosto cuando la tecnológica comenzó a realizar cambios en sus modelos de IA para identificar mejor situaciones de crisis mental y emocional durante las conversaciones con ChatGPT, añadiendo nuevas salvaguardias, bloqueos de contenido más eficaces y agilizando el contacto con servicios de ayuda y familiares.
Estos cambios, que abogan por aumentar la seguridad de los usuarios, están precedidos de un incidente que se saldó con el suicidio de un adolescente de 16 años en Estados Unidos en abril de este año.
Los padres demandaron a la compañía debido al papel que jugó ChatGPT, dado que, tras revisar las conversaciones que su hijo mantuvo con el chatbot durante varios meses, se pudo ver como aunque le ofreció en numerosas ocasiones recursos para buscar ayuda, las salvaguardias acabaron fallando y la conversación comenzó a girar en torno al suicidio.