- Utah es el segundo estado de EE.UU. en delegar autoridad clínica a una IA para recetar medicamentos psiquiátricos sin supervisión médica directa.
- El piloto de un año, operado por Legion Health, ofrece renovaciones de recetas por $19 mensuales, buscando reducir costos y aliviar la escasez de atención.
- Médicos advierten que el sistema es opaco y riesgoso, con potencial para errores en fármacos de efectos graves y falta de acceso para poblaciones vulnerables.
- Si tiene éxito, este modelo podría expandirse a otros estados, redefiniendo los roles en psiquiatría y exigiendo marcos regulatorios más fuertes para la IA en salud.
Utah ha dado un paso sin precedentes al autorizar que un sistema de inteligencia artificial recete medicamentos psiquiátricos sin la supervisión directa de un médico humano. Este piloto de un año, anunciado la semana pasada, convierte al estado en el segundo del país en delegar autoridad clínica a una IA, siguiendo un precedente establecido en otros sectores de salud. La startup Legion Health, con sede en San Francisco, operará el chatbot que ofrecerá renovaciones de recetas a pacientes de Utah por una suscripción mensual de $19, prometiendo acceso rápido y simple en medio de una crisis de atención mental.
Este piloto marca un punto de inflexión en cómo la IA se integra en la atención médica, con implicaciones directas para la seguridad de pacientes, la regulación tecnológica y el futuro de la psiquiatría.
Contexto regulatorio y precedentes
La decisión de Utah se enmarca en un esfuerzo más amplio por integrar tecnología en la atención médica, especialmente en estados con escasez de profesionales. Anteriormente, solo otro estado había permitido que una IA tomara decisiones clínicas similares, aunque en áreas menos sensibles. Las autoridades estatales argumentan que esta medida puede reducir costos y aliviar la presión sobre un sistema de salud mental sobrecargado, donde los tiempos de espera para citas pueden extenderse por meses.
Sin embargo, la delegación de autoridad a algoritmos plantea preguntas críticas sobre responsabilidad y seguridad. A diferencia de un médico, un chatbot no puede interpretar matices emocionales o cambios sutiles en la condición de un paciente, lo que podría llevar a errores en la prescripción de fármacos con efectos secundarios graves.
Utah delega autoridad clínica a un algoritmo para recetar fármacos psiquiátricos, un movimiento que médicos califican de opaco y riesgoso.
Advertencias de la comunidad médica
Médicos y psiquiatras han expresado preocupaciones profundas sobre el piloto. Señalan que el sistema de Legion Health es opaco, con poca transparencia sobre cómo el algoritmo toma decisiones o maneja datos sensibles de pacientes. Además, advierten que la IA podría no expandir el acceso a quienes más lo necesitan, como poblaciones rurales o de bajos ingresos, sino simplemente automatizar procesos para usuarios ya conectados digitalmente.
La falta de supervisión humana directa también aumenta el riesgo de mal uso o dependencia, especialmente en un campo donde la relación terapéutica es crucial. Algunos expertos temen que esto establezca un precedente peligroso para la deshumanización de la atención psiquiátrica, priorizando la eficiencia sobre el cuidado integral.
Implicaciones para el futuro de la salud
Si el piloto en Utah tiene éxito, podría impulsar una ola de adopción similar en otros estados, transformando cómo se gestiona la salud mental en EE.UU. Esto podría abrir oportunidades para startups de GLM y otras IA especializadas en salud, pero también requerirá marcos regulatorios más robustos para garantizar la seguridad del paciente.
“Los mercados están siempre mirando al futuro, no al presente.”
— The Verge
A largo plazo, la integración de IA en psiquiatría podría redefinir los roles de los profesionales, desplazando tareas administrativas pero exigiendo nuevas habilidades en supervisión tecnológica. Los pacientes, por su parte, deberán navegar un panorama donde la confianza en algoritmos compite con la necesidad de contacto humano, un equilibrio delicado en un sector ya estigmatizado.