La semana pasada se dio a conocer el que parece ser el primer caso de un paciente "envenenado" por seguir los consejos de salud del gran modelo de lenguaje que funciona con Inteligencia Artificial ChatGPT, que le recomendó la ingestión de bromuro de sodio.
"Un hombre de 60 años, sin antecedentes psiquiátricos ni médicos, acudió a urgencias expresando su preocupación por un posible envenenamiento por parte de su vecino", relatan los autores del reporte publicado el pasado 5 agosto en la revista Annals of Internal Medicine: Clinical Cases.
Al principio, el paciente aseguró no estar tomando ningún medicamento, ni siquiera suplementos alimenticios, continúa el equipo de la Universidad de Washington, pero añade que el paciente "comentó que mantenía múltiples restricciones dietéticas y que destilaba su propia agua en casa. Se observó que tenía mucha sed, pero que se mostraba paranoico con el agua que le ofrecían".
Si bien "(s)us constantes vitales y la exploración física, incluyendo la exploración neurológica, fueron normales", el análisis de laboratorio reveló que los electrolitos del paciente tenían algunos niveles fuera de lo común, por lo que ingresó para "monitorización y reposición de electrolitos".
Durante las primeras 24 horas de ingreso, el paciente "presentó paranoia creciente y alucinaciones auditivas y visuales", lo que motivo un "ingreso psiquiátrico involuntario por discapacidad grave" y que se le medicara para psicosis.
Como la consulta fue motivada por una sospecha de envenenamiento, el equipo médico realizó un diagnóstico más amplio.
Los resultados de las pruebas mostraron, por un lado, que la falta de fosfato se debía, muy probablemente, al síndrome de realimentación, causado por la dieta vegetariana extremadamente restrictiva que el paciente describió. Además, "se le detectaron múltiples deficiencias de micronutrientes".
Pero los síntomas psiquiátricos y el aparente exceso de iones cloruro o hipercloremia tenían otra explicación, que eventualmente condujo al equipo a saber sobre la intervención de ChatGPT en el caso.
La intervención de ChatGPT
Dado que el paciente tenía un nivel normal de sodio, se consideró que quizá no había un exceso de cloruro sino de bromuro, ya que el bromo pertenece a la misma familia química del cloro y la detección puede confundirlos. El bromismo, un síndrome tóxico, explicaría tanto los síntomas psiquiátricos, algunos detalles de las mediciones metabólicas, así como la aparición de acné facial, fatiga e insomnio.
Eventualmente, el paciente compartió con el equipo médico que "después de leer sobre los efectos negativos del cloruro de sodio, o sal de mesa, en la salud, se sorprendió de que solo pudiera encontrar literatura relacionada con la reducción de sodio en la dieta", se lee en el reporte.
"Inspirado por su experiencia en nutrición en la universidad, decidió realizar un experimento personal para eliminar el cloruro de su dieta. Durante tres meses, sustituyó el cloruro de sodio por bromuro de sodio obtenido de internet tras consultar con ChatGPT, donde había leído que el cloruro se puede sustituir por bromuro, aunque probablemente para otros fines, como la limpieza".
Como descargo para ChatGPT, en el reporte se especifica que el equipo médico no tuvo acceso a la conversación entre la IA y el paciente, por lo que no puede afirmar que esta le recomendó ingerir el bromuro de sodio, sólo que lo ofreció como un sustituto del cloruro de sodio.
"Cuando le preguntamos a ChatGPT 3.5 con qué se puede sustituir el cloruro, también generamos una respuesta que incluía bromuro", comentan los autores. "Si bien la respuesta indicó que el contexto importa, no proporcionó una advertencia sanitaria específica ni indagó sobre el motivo de nuestra solicitud, como suponemos que haría un profesional médico".
Gradualmente, durante las tres semanas que el paciente estuvo en el hospital, sus niveles de cloruro se normalizaron y los síntomas psicóticos mejoraron al punto de no requerir el antipsicótico. Cuando se le dio de alta, su nivel de bromuro aún era muy elevado.
Con información de Latinus