Muere a los 73 años un paciente con leucemia que siguió los consejos de la inteligencia artificial para tratar su enfermedad

Frente a la opinión autorizada de un médico especialista, el estadounidense Joe Riley prefirió la de un chatbot de inteligencia artificial, lo que condujo al desenlace inevitable. Lo cuenta su hijo Leer Frente a la opinión autorizada de un médico especialista, el estadounidense Joe Riley prefirió la de un chatbot de inteligencia artificial, lo que condujo al desenlace inevitable. Lo cuenta su hijo Leer  

Hoy en día, cada vez más personas recurren a modelos de inteligencia artificial generativa (como ChatGPT o Gemini) para obtener aclaraciones u opiniones sobre su estado de salud, evitando acudir a médicos y otros profesionales del ámbito sanitario. Pero esto se revela como un arma de doble filo y no siempre las cosas salen bien, con consecuencias a veces dramáticas y fatales. Hace aproximadamente dieciocho meses, al estadounidense Joseph Neal Riley, de 73 años, le diagnosticaron un tumor de pulmón, una enfermedad renal y leucemia linfática crónica, una forma específica de cáncer de la sangre que finalmente le provocó la muerte. Una condición clínica compleja, que habría requerido un tratamiento médico bastante rápido.

Si bien las dos primeras patologías se resolvieron en pocos meses gracias a la radioterapia y a otros tratamientos específicos para los riñones, en el caso de la leucemia la situación se volvió claramente más problemática. El oncólogo que lo trataba acabó recomendando (con cierta urgencia) un tratamiento basado en Venetoclax y Obinutuzumab, una terapia de primera línea relativamente reciente, introducida hace pocos años para el tratamiento de la leucemia linfática crónica, útil tanto para prolongar la esperanza de vida como para reducir el sufrimiento físico de los pacientes.

Lo que sucedió, sin embargo, resulta grotesco: a pesar de su elevado nivel de formación (en gran parte gracias al doctorado en neurociencias obtenido en la Universidad de Florida en 1977) y a sus más de 50 publicaciones académicas, Riley decide no hacer caso a la opinión del médico especialista (de la que ni siquiera sus hijos estaban al tanto), optando en cambio por confiar en Perplexity, uno de los modelos de inteligencia artificial más populares actualmente en el mercado. Una decisión en parte irracional, motivada sobre todo por su miedo a los hospitales.

El hombre decidió voluntariamente no recurrir a los fármacos oncológicos propuestos por el especialista: al entablar un diálogo cada vez más intenso con el chatbot de inteligencia artificial, llega a convencerse de que padece una «transformación de Richter», una complicación muy agresiva (y dolorosa) de la leucemia linfática crónica. Sobre la base de esta «autodiagnosis» (que después resultó, obviamente, infundada), el tratamiento con Venetoclax y Obinutuzumab sólo habría empeorado su estado. Una convicción errónea que, como es fácil imaginar, acabó conduciendo al inevitable fallecimiento del hombre.

Hay, no obstante, una coincidencia trágica en todo esto: en los dos últimos años, había sido precisamente la inteligencia artificial la que había vuelto a acercar a padre e hijo, gracias a numerosas conversaciones entre ambos sobre su funcionamiento y a un interés cada vez mayor por este nuevo ámbito. La misma inteligencia artificial en la que Joe confió demasiado ciegamente, pagando un precio muy alto.

De todas esas «correspondencias» con Perplexity, Benjamin Riley (uno de los hijos) se enteró demasiado tarde, cuando ya no era posible poner remedio: tras acceder al portal MyChart (una especie de historial médico electrónico) de su padre, Ben descubrió, así, los repetidos intercambios de correos con su oncólogo. Por lo que se desprende, Joe habría enviado los informes de Perplexity al especialista, que desde el principio se mostró perplejo y escéptico.

Ben decidió entonces ponerse en contacto personalmente con los médicos que habían realizado el estudio citado por Perplexity (en apoyo de su tesis): sorprendentemente, ambos sostuvieron que Perplexity había malinterpretado las conclusiones de su investigación y que su padre debería haber seguido las indicaciones del oncólogo.

En un primer momento, Joe no quiso saber nada, y pasaron muchos meses antes de que se convenciera de iniciar el tratamiento contra el cáncer (propuesto más de un año antes), cuando ya era demasiado tarde.

Marcado por esta dolorosa experiencia, el propio Ben decidió finalmente desaconsejar el uso indiscriminado de estos chatbots con algunas reflexiones en su blog personal, en un intento de concienciar al mayor número de personas posible: «No quiero exagerar mi caso, no creo que la inteligencia artificial haya matado a mi padre. Creo que, en un hipotético mundo sin inteligencia artificial, él se habría aferrado igualmente a otras investigaciones para respaldar su convicción contra los tratamientos médicos. No obstante, sigue siendo un hecho que la inteligencia artificial existe en nuestro mundo y, del mismo modo que puede alimentar las psicosis, también puede confirmar o amplificar nuestras creencias erróneas».

 Salud // elmundo

Más Noticias