top of page

Adulto mayor es hospitalizado por seguir recomendación dietética de ChatGPT

Aunque herramientas como ChatGPT pueden facilitar el acceso a información, no sustituyen la consulta médica profesional

Un caso inusual encendió las alarmas médicas: un hombre de 60 años terminó internado después de implementar en su alimentación indicaciones obtenidas de ChatGPT, la conocida herramienta de Inteligencia Artificial. 
Un caso inusual encendió las alarmas médicas: un hombre de 60 años terminó internado después de implementar en su alimentación indicaciones obtenidas de ChatGPT, la conocida herramienta de Inteligencia Artificial. 

De acuerdo con el reporte publicado en la revista Annals of Internal Medicine: Clinical Case, el paciente sustituyó la sal de mesa por bromuro de sodio, lo que desencadenó un cuadro de bromismo, una intoxicación poco común en la actualidad pero con alto riesgo para la salud.


Síntomas y diagnóstico


ree

El hombre llegó al área de urgencias presentando síntomas neurológicos y psiquiátricos severos. Entre ellos, paranoia (con la creencia de que su vecino intentaba envenenarlo) y, posteriormente, alucinaciones visuales y auditivas.

Días más tarde, admitió que había consultado a ChatGPT sobre posibles reemplazos para la sal común y que la IA le recomendó el consumo de bromuro de sodio. Durante tres meses, siguió esta práctica, lo que elevó de manera significativa sus niveles de bromuro en sangre.

El equipo médico inició un tratamiento basado en diuresis salina y reposición de nutrientes. Después de tres semanas de atención, lograron estabilizar al paciente y revertir los síntomas más graves.

¿Qué es el bromismo?

El bromismo es una intoxicación provocada por la acumulación de sales de bromuro en el organismo. A comienzos del siglo XX era más frecuente, ya que se utilizaban en medicamentos para tratar insomnio y ansiedad. Sin embargo, entre 1975 y 1989, la FDA prohibió su uso por los riesgos que representaban.

Sus manifestaciones incluyen confusión, paranoia, cambios en la piel, problemas de coordinación y alucinaciones. Una detección temprana es esencial para evitar complicaciones graves.

El riesgo de seguir consejos médicos de la IA
El riesgo de seguir consejos médicos de la IA

Aunque herramientas como ChatGPT pueden facilitar el acceso a información, no sustituyen la consulta médica profesional. Tomar decisiones relacionadas con la salud basándose únicamente en sugerencias de inteligencia artificial puede tener consecuencias peligrosas, como evidenció este caso.

Estas plataformas no están diseñadas para diagnosticar ni indicar tratamientos, por lo que cualquier modificación en la dieta o consumo de sustancias debe ser previamente evaluada por un especialista. Validar la información con profesionales es fundamental para prevenir situaciones de riesgo.


 
 
 

Comentarios


bottom of page