Un estudio reveló que ChatGPT llevó a un hombre a intoxicarse y desarrollar psicosis
Un caso médico en Estados Unidos expone los riesgos de seguir consejos médicos de inteligencia artificial sin supervisión profesional, tras la grave intoxicación por bromuro de un hombre que siguió una recomendación errónea del chatbox.
Un hombre de 60 años en el estado de Washington sufrió una grave intoxicación por bromuro tras seguir una recomendación médica incorrecta proporcionada por ChatGPT, que lo llevó a sustituir la sal común por bromuro de sodio durante meses. Este caso, documentado en un estudio publicado en Annals of Internal Medicine: Clinical Cases, plantea una alerta sobre los peligros de confiar en la inteligencia artificial para consejos de salud sin la guía de profesionales.
El paciente llegó a urgencias con síntomas como sed intensa, paranoia, alucinaciones y desconfianza hacia el agua, que derivaron en su hospitalización psiquiátrica. Durante la evaluación, se descubrió que llevaba una dieta extremadamente restrictiva y usaba bromuro de sodio gradual en una consulta con ChatGPT, donde se le recomendó esta sustancia como alternativa saludable al cloruro de sodio, sin advertirle sus riesgos tóxicos.
Los análisis mostraron niveles de bromuro en sangre 233 veces superiores a lo seguro, lo que explicó sus síntomas neurológicos y psicológicos, entre ellos psicosis y pérdida de coordinación motora. Tras tres semanas sin consumir bromuro, el paciente mejoró notablemente.
Este caso subraya que, aunque las IA generativas como ChatGPT pueden brindar información técnicamente correcta, carecen de la capacidad para evaluar contextos clínicos, ofrecer advertencias claras o solicitar datos adicionales para evitar riesgos sanitarios. Cuando expertos replicaron la misma consulta, la IA volvió a recomendar bromuro sin alertar sobre su toxicidad.
Los especialistas advierten que la inteligencia artificial debe usarse como complemento y no sustituto del diagnóstico y la recomendación médica profesional. La verificación, el juicio crítico y la consulta con médicos son imprescindibles para prevenir errores potenciales letales.
+ INFO: Los padres confían más en la inteligencia artificial que en los médicos para sus hijos
+ INFO: Microsoft afirma que una IA médica supera a médicos humanos




