Ya era una mala práctica buscar el significado de los resultados de tus análisis médicos en internet. Pero todo puede empeorar, y el martes último la revista científica Annals of Internal Medicine: Clinical Cases publicó los detalles de un caso insólito que a la vez funciona como una advertencia.
El paciente llegó al hospital convencido de que su vecino estaba intentando envenenarlo. Explicó, además, que llevaba una dieta muy estricta y se negó incluso a aceptar el agua que le ofrecieron, a pesar de sentirse muy sediento; destilaba su propia agua en casa, añadió. Aunque con evidentes signos de paranoia, su estado clínico era normal, así como la mayoría de los análisis a los que fue sometido. Pero los médicos entonces encontraron una serie de irregularidades que condujeron a una conclusión que no se veía desde el siglo XIX. El paciente sufría bromismo o intoxicación por bromo, que causa síntomas de psicosis.
¿Qué había pasado? Cuando lograron estabilizarlo, el paciente relató que había querido eliminar el cloro de su dieta (la sal de mesa es cloruro de sodio) y que le preguntó a ChatGPT. El bot de IA listó el bromuro de sodio entre las alternativas, pero no como alimento. El hombre de todos modos tomó la sugerencia y terminó hospitalizado.