Fecha de publicación: 11 de Agosto de 2025 a las 12:58:00 hs
Medio: INFOBAE
Categoría: GENERAL
Descripción: Un hombre de 60 años quería bajar de dieta, así que le pidió a la inteligencia artificial de OpenAI que le brindara opciones, pero esta sugerencia terminó provocándole una enfermedad que era común en el siglo XIX
Contenido: La confianza en la inteligencia artificial (IA) para obtener respuestas rápidas y personalizadas se ha extendido a casi todos los aspectos de la vida cotidiana, incluidas las consultas sobre salud, pero un caso reciente documentado en la revista Annals of Internal Medicine Clinical Cases advierte sobre los riesgos de seguir pautas sanitarias ofrecidas por herramientas no supervisadas.
Un hombre de 60 años recurrió a ChatGPT, el popular chatbot desarrollado por OpenAI, para encontrar una alternativa a la sal común. Tras obtener una respuesta aparentemente convincente, decidió ponerla en práctica, sin consultar a un especialista.
El resultado fue una intoxicación grave conocida como bromismo, que obligó a su hospitalización de urgencia. El caso destaca las limitaciones de la inteligencia artificial en el ámbito médico y reaviva el debate sobre la responsabilidad y los límites en el uso de tecnologías emergentes.
El hombre, preocupado por reducir su consumo de cloruro sódico, buscó alternativas a la sal convencional a través de ChatGPT. Según relató, el chatbot le sugirió reemplazarla por bromuro de sodio, una pauta sin fundamento médico.
Convencido de que podía mejorar su salud, adquirió este compuesto por internet y lo incorporó a su dieta diaria durante tres meses. El bromuro de sodio fue utilizado en el pasado como ingrediente principal en medicamentos sedantes, tanto de venta libre como con receta.
No obstante, su uso provocó varios casos de intoxicación conocidos como bromismo, lo que llevó a su retirada del mercado. Por esta razón, ningún profesional médico habría sugerido este sustituto, como advirtieron los autores del informe médico que analizó el caso.
Semanas después de comenzar a consumir bromuro de sodio, el paciente experimentó una variedad de síntomas neurológicos y psiquiátricos.
Presentó paranoia, alucinaciones, insomnio y dificultades motrices, lo que requirió atención médica urgente. El cuadro clínico se agravó con la aparición de lesiones cutáneas, acné y protuberancias rojizas.
Inicialmente, los análisis mostraron un nivel elevado de cloruro, resultado alterado por la interferencia química del bromuro en los estudios de laboratorio. Este elemento dificultó el diagnóstico.
La consulta con el servicio de toxicología fue clave para identificar la intoxicación por bromuro, una condición actualmente poco frecuente, y permitir el tratamiento adecuado con hidratación, reposición de electrolitos y medicación antipsicótica. Tras estabilizarse, el hombre recibió el alta y continuó en seguimiento ambulatorio.
Los autores del informe publicado en la revista médica insisten en que la sugerencias de sustituir la sal por bromuro, no se apoya en ninguna base científica aceptada.
En el artículo se señaló que “jamás un profesional médico habría recomendado el bromuro como sustituto de la sal”, lo que pone de manifiesto el peligro de acceder a consejos de salud por vías no supervisadas.
Desde OpenAI, la empresa responsable de ChatGPT, se subraya que sus herramientas no están diseñadas para diagnóstico ni tratamiento médico.
Voceros de la compañía reiteraron a Live Science que la inteligencia artificial “no debe emplearse como única fuente de información para cuestiones de salud”, advertencia que figura en sus términos de uso y servicio.
El caso del hombre intoxicado por bromuro de sodio ilustra los peligros de adquirir y consumir compuestos químicos sin supervisión médica. El acceso por internet a sustancias retiradas del mercado permite que persistan riesgos ya controlados en otros contextos.
Pese a que el bromismo es una intoxicación rara en la actualidad, la facilidad para obtener estos productos aumenta la probabilidad de nuevos episodios.
Sin la guía de un especialista, las personas pueden caer en decisiones que ponen en peligro su vida, como ocurrió en este caso tras seguir el consejo de un chatbot.
Visitas: 0