La compañía OpenAI ha incorporado nuevas funciones de control parental y herramientas diseñadas para detectar situaciones de crisis mental en ChatGPT, después de que saliera a la luz el caso de un adolescente que utilizó este chatbot como confidente antes de quitarse la vida. Según informó NBC News, la empresa tecnológica ha reforzado sus sistemas tras recibir una demanda por parte de la familia Raine, quienes responsabilizan a OpenAI por supuestos defectos en su plataforma.
De acuerdo con la información publicada por NBC News, los padres de Adam Raine, un adolescente de 16 años, presentaron una demanda judicial al considerar que ChatGPT desempeñó un papel determinante en el suicidio de su hijo. Los padres afirmaron que Adam utilizó el chatbot desarrollado por OpenAI tanto para apoyo escolar como para conversar durante varios meses. Aunque señalan que el sistema ofreció en reiteradas ocasiones recursos de ayuda relacionados con conductas preocupantes, la familia sostiene que dichas medidas de protección no funcionaron adecuadamente en el momento en que las conversaciones tomaron un giro hacia el suicidio. Adam, según narró la familia y transmitió NBC News, logró eludir los controles introduciendo frases como si buscara ideas para una historia, lo que permitió que el sistema facilitara consejos que, sostienen, contribuyeron a su fallecimiento.
En su respuesta ante la demanda, OpenAI negó cualquier responsabilidad directa en el desenlace y argumentó que se trató de un «uso indebido» del chatbot por parte del menor. La tecnológica puntualizó en su declaración, recogida por NBC News, que “las supuestas lesiones y daños de los demandantes fueron causados o contribuidos, directa y próximamente, en su totalidad o en parte, por el mal uso, el uso no autorizado, el uso no intencionado, el uso imprevisible y/o el uso indebido de ChatGPT por parte de Adam Raine”. OpenAI explicó que el adolescente vulneró varias de las normas expuestas en las condiciones de uso, entre ellas, la de no permitir que menores de 18 años utilicen ChatGPT sin consentimiento parental y la prohibición de solicitar información para autolesiones o suicidio.
La empresa, tal como señaló NBC News, defendió además que ChatGPT recomendó en más de cien ocasiones distintas que el adolescente buscara ayuda profesional, aunque dichas advertencias no resultaron en un cambio de comportamiento por parte del usuario. Según la tecnológica, los términos de servicio establecen de forma explícita que los usuarios acceden al servicio bajo su propio riesgo y que existen limitaciones de responsabilidad claramente recogidas en sus políticas.
En su blog, OpenAI comunicó que ha entregado de forma privada al tribunal información recabada de las conversaciones del joven con el ‘chatbot’, en las que se incluyen detalles relativos a la salud mental y a la vida personal de Adam Raine. La empresa manifestó sentirse obligada a responder a las acusaciones “específicas y graves de la demanda” y expresó que “es importante” que el tribunal “tenga una visión completa para poder evaluar plenamente las alegaciones presentadas”.
El medio NBC News indicó que, tras este caso, OpenAI implementó mejoras en los sistemas de seguridad de ChatGPT y de sus modelos de inteligencia artificial. Entre las nuevas funcionalidades, ahora se encuentran algoritmos que identifican con mayor precisión situaciones de crisis mental y emocional, así como salvaguardias que impiden la aparición de ciertos contenidos y mecanismos para agilizar el contacto con servicios de ayuda y familiares.
Además, la empresa presentó controles parentales específicamente dirigidos a cuentas de adolescentes. Los padres cuentan a partir de ahora con la opción de personalizar la cuenta de sus hijos con medidas como restringir el acceso a determinados contenidos, inhabilitar las funciones de memoria del sistema o la generación de imágenes, y programar franjas horarias de silencio. Según detalló el medio, OpenAI también anunció el desarrollo de un sistema de predicción de edad que permitirá identificar cuando el usuario sea menor de 18 años, de forma que el sistema active de manera automática las configuraciones y restricciones pertinentes para adolescentes.
NBC News reportó que el caso ha reavivado el debate en torno a la seguridad de las plataformas de inteligencia artificial y la necesidad de establecer medidas que protejan especialmente a los menores de edad. Mientras la familia Raine mantiene su postura acerca de los presuntos fallos de seguridad en ChatGPT, la defensa de OpenAI recalca la importancia del uso responsable y supervisado de la tecnología, conforme a las reglas establecidas por la empresa y las recomendaciones de profesionales de la salud mental.
