Hombre sufre intoxicación grave tras seguir consejo dietético de ChatGPT: sustituyó sal por bromuro de sodio

Ciudad de México ► Un hombre de 60 años fue hospitalizado en Estados Unidos tras desarrollar un cuadro severo de intoxicación química y psicosis, luego de seguir una recomendación obtenida a través de ChatGPT para sustituir el cloruro de sodio (sal de mesa) por bromuro de sodio.

Según el reporte publicado el 5 de agosto en Annals of Internal Medicine: Clinical Cases, el paciente, sin antecedentes médicos ni psiquiátricos, ingresó a urgencias con paranoia y alucinaciones, convencido de que su vecino intentaba envenenarlo. Aunque inicialmente negó consumir medicamentos o suplementos, los análisis revelaron niveles anormales de electrolitos y una concentración de bromuro en sangre de 1,700 mg/L, muy por encima del rango normal.

Durante tres meses, el hombre había reemplazado la sal común por bromuro de sodio adquirido en línea, tras consultar con ChatGPT sobre alternativas al cloruro. La IA mencionó el bromuro como posible sustituto, sin advertencias específicas ni indagación sobre el contexto de uso.

El paciente fue diagnosticado con bromismo, una intoxicación por bromuro que fue común en el siglo XX cuando se usaba en medicamentos para insomnio y ansiedad, pero que fue prohibida por la FDA entre 1975 y 1989. Los síntomas incluyeron paranoia y alucinaciones auditivas y visuales, acné facial, fatiga e insomnio, sed extrema y rechazo al agua ofrecida y deficiencias de micronutrientes por dieta vegetariana restrictiva

Fue internado en una unidad psiquiátrica y tratado con diuresis salina y reposición de nutrientes. Tras tres semanas, sus síntomas mejoraron y fue dado de alta, aunque sus niveles de bromuro seguían elevados.

Riesgos de la IA en salud

Los autores del estudio replicaron la consulta en ChatGPT 3.5 y confirmaron que el sistema sugería bromuro como sustituto del cloruro, sin advertencias sanitarias claras. Aunque no se pudo acceder a la conversación original, se concluyó que la IA carece de juicio clínico y puede generar recomendaciones peligrosas si se usa sin supervisión profesional.

Expertos advierten que los modelos de lenguaje como ChatGPT no están diseñados para diagnosticar ni tratar enfermedades, y que su uso como fuente principal de información médica puede derivar en errores graves.

Este caso se ha convertido en una advertencia sobre los límites de la inteligencia artificial en temas de salud, especialmente en una era donde el acceso a información no siempre garantiza comprensión ni seguridad. ■

Centro lanza el reto ‘Historias del Barrio Mágico’ para rescatar memorias de la Zona Luz
11/08/2025

Villahermosa ► El gobierno municipal convoca al Reto “Historias del Barrio Mágico en Centro”, un concurso que invita a capturar