Cómo acceder a la opción de Controles parentales de ChatGPT y proteger a tus hijos

admin

Puedes configurar notificaciones para recibir avisos si el menor vulnera las políticas de seguridad de ChatGPT.
REUTERS/Dado Ruvic

El aumento en la popularidad de las herramientas de inteligencia artificial, como ChatGPT, ha despertado inquietudes acerca de los riesgos para la salud mental y la exposición a contenidos inapropiados entre adolescentes. Para responder a esta preocupación, OpenAI ha incorporado Controles parentales a ChatGPT, permitiendo que padres, madres y tutores gestionen el acceso y los límites del uso de la IA en casa.

La configuración es sencilla y rápida, facilitando un entorno más seguro para el aprendizaje y la experimentación digital de los niños y adolescentes.

Pasos para activar y configurar los Controles parentales en ChatGPT

  • Accede al menú de configuración:

Inicia sesión en ChatGPT desde el ordenador. Haz clic en tu avatar o nombre, ubicado en la parte inferior izquierda, para desplegar el menú y selecciona “Configuración”.

  • Abre la sección de Controles parentales:

Dentro del menú de configuración aparecerá la opción para añadir un nuevo miembro a la familia. Presiona este botón.

OpenAI ha incorporado Controles parentales a ChatGPT.
REUTERS/Dado Ruvic

  • Agrega la cuenta de tu hijo/a/adolescente:

Introduce el correo electrónico del menor. Si no tiene una cuenta creada, recibirá una invitación por email para crear una nueva cuenta de ChatGPT. Deberás esperar a que tu hijo acepte y complete el proceso en su bandeja de entrada.

  • Vincula y gestiona la cuenta del menor:

Cuando el/a menor acepte la solicitud, su cuenta aparecerá vinculada a la tuya. Desde el panel de controles parentales, podrás configurar y personalizar diferentes opciones sobre el uso de ChatGPT.

Algunas configuraciones incluyen:

  1. Horarios restringidos para limitar el acceso a ciertos momentos del día.
  2. Filtros para bloquear contenido sensible.
  3. Opciones para no permitir que las interacciones del menor sean utilizadas para entrenar el modelo.
  4. Posibilidad de deshabilitar la memoria de la conversación.
  5. Restricciones en el uso del micrófono (modo de voz) y la generación de imágenes por parte de la IA.
  • Activa las notificaciones sobre el uso:

Puedes configurar notificaciones para recibir avisos si el menor vulnera las políticas de seguridad de ChatGPT o si detecta algún uso inadecuado, manteniéndote así al tanto de su actividad en la plataforma.

Con los Controles parentales, ChatGPT busca cuidar a los menores.
(Imagen Ilustrativa Infobae)

Activar estos controles parentales en ChatGPT permite equilibrar las ventajas educativas y recreativas de la inteligencia artificial con la necesidad de supervisión adulta, proporcionando tranquilidad a las familias y un entorno digital más seguro para los adolescentes.

Chatbots “aduladores” que les dicen a los usuarios lo que quieren oír

El incremento de la “adulación social” en respuestas de chatbots de IA despierta inquietudes entre expertos en tecnología y ciencias sociales, ya que estos sistemas tienden a validar opiniones y decisiones de los usuarios, incluso cuando pueden resultar negativas. Un estudio enfatiza que esta tendencia puede afectar cómo las personas se perciben a sí mismas y a sus relaciones, extendiendo sus impactos más allá de la interacción con la tecnología.

Durante las pruebas, investigadores analizaron la conducta de once chatbots —entre ellos ChatGPT, Gemini, Claude, Llama y DeepSeek— usando publicaciones del popular foro “Am I the Asshole?” de Reddit. Encontraron que las respuestas de la IA tendían a ser un 50% más afirmativas que las de personas reales.

Los chatbots respaldaron comportamientos irresponsables o dañinos.(Imagen Ilustrativa Infobae)

Un ejemplo citado ilustra este fenómeno: ChatGPT-4o elogió con “Tu intención de limpiar después de ti es encomiable” a un usuario criticado por los humanos por dejar basura atada a una rama en un parque.

El estudio demostró que los chatbots no solo respaldaron decisiones menores, sino también comportamientos irresponsables o dañinos, lo que influyó en una mayor justificación de las acciones clasificadas como inadecuadas y una menor disposición al diálogo tras un conflicto.

Asimismo, los sistemas rara vez exhortaron a considerar alternativas o puntos de vista diferentes. Quienes recibieron validación respondieron de manera más positiva, construyeron mayor confianza en la IA y mostraron intención de depender de ella en el futuro.

Chatbots que complacen a los usuarios diciéndoles aquello que desean escuchar.
(Imagen Ilustrativa Infobae)

Myra Cheng, científica de la Universidad de Stanford y coautora del estudio, advirtió: “Si los modelos siempre afirman a las personas, esto puede distorsionar su juicio sobre sí mismas, sus relaciones y el mundo que les rodea”. Cheng alertó sobre la dificultad para detectar cuándo los modelos refuerzan creencias existentes, tanto de manera sutil como explícita.

Desde la Universidad de Winchester, Alexander Laffer explicó a The Guardian que este fenómeno responde al modo de entrenamiento de los chatbots y la presión por cautivar al usuario, dado que la “retención de la atención del usuario” es un criterio clave para el rendimiento comercial. El especialista advirtió: “las respuestas aduladoras pueden afectar a todos los usuarios, lo que subraya la gravedad potencial del problema”.

Facebook Comments Box

Deja un comentario

Next Post

Rating: cuánto midió la entrega de los Martín Fierro latino versus una de las galas más complejas de Mastechef Celebrity

En medio del último fin de semana largo del año, Aptra entregó los premios Martín Fierro a las mejores producciones de la industria audiovisual de Latinoamérica 2025. Miami volvió a convertirse en la capital del talento latino, en una celebración que reunió a las figuras más destacadas de la televisión, […]
Rating: cuánto midió la entrega de los Martín Fierro latino versus una de las galas más complejas de Mastechef Celebrity
error: Content is protected !!