Utah, en Estados Unidos, ha abierto un experimento delicado: permitir que un sistema de inteligencia artificial renueve determinadas recetas de pacientes crónicos sin que intervenga un médico en la decisión, dentro de un programa piloto con la startup Doctronic. Para el estado, es una forma de probar hasta dónde puede automatizarse una tarea rutinaria sin romper la confianza (ni la seguridad) de un acto tan sensible como la prescripción.
El funcionamiento está pensado para parecerse a un "recambio" administrativo, no a una consulta: el paciente entra en una web que confirma que está físicamente en Utah, el sistema recupera su historial de prescripción y solo ofrece medicamentos elegibles para renovación. A partir de ahí, la IA guía un cuestionario clínico y, si todo cuadra, envía la receta a la farmacia; el programa está acotado a un listado de fármacos "comunes" y deja fuera categorías consideradas de mayor riesgo.
Salvaguardas y puntos ciegos
Las salvaguardas son parte del relato oficial: el piloto nace en un entorno regulatorio de prueba (Utah lo encuadra en su apuesta por "desatascar" innovación sin saltarse el marco estatal) y se apoya en escalados cuando hay dudas, además de controles por clases de medicamentos en el arranque para vigilar que el sistema no se "confíe" demasiado pronto. El punto ciego, claro, es el mismo que persigue a cualquier automatización clínica: detectar señales sutiles (interacciones, síntomas que "no encajan", cambios de contexto) que a veces aparecen entre líneas.
Por eso, asociaciones médicas y reguladores profesionales miran el piloto con una mezcla de curiosidad y alarma: una IA puede estandarizar chequeos que un humano hace deprisa, pero también puede ser "jugada" o pasar por alto matices. La American Medical Association ha advertido de riesgos cuando se prescinde del juicio clínico del médico, y el propio estado admite que la clave es que el despliegue cuide la confianza pública y no parezca una temeridad.
Evidencia previa y la línea regulatoria
En la evidencia científica hay una pista útil: los sistemas de apoyo a la decisión clínica (CDSS) y la prescripción electrónica (CPOE) llevan años mostrando que pueden reducir errores en la cadena de medicación, aunque el impacto en resultados finales no siempre es lineal y pueden aparecer fallos nuevos (duplicidades, fatiga por alertas). Un metaanálisis de CDSS en prescripción recoge mejoras en el desempeño del médico y efectos variables en resultados del paciente, y estudios observacionales con CPOE describen descensos medibles de errores tras su implantación, a la vez que señalan efectos secundarios "de diseño" que requieren vigilancia.
El otro gran frente es quién regula esto si escala: Utah insiste en que está gestionando su competencia sobre la práctica médica, pero la FDA lleva tiempo marcando que ciertos "software functions" con IA, si se comercializan para funciones médicas, pueden entrar en su paraguas como dispositivo, con exigencias de control de cambios y gestión de riesgos. Si otros estados copian el modelo, el piloto se convierte en un caso de prueba real para la línea (cada vez menos nítida) entre "herramienta" y "acto médico" automatizado.