El uso de la IA significa que estos aparatos y las aplicaciones pueden aprender y cambiar con el tiempo, creando desafíos para las autoridades reguladoras que los aprueban.
Fuente: The Wall Street Journal / traducido y publicado por El Mercurio
El empleo de la inteligencia artificial (IA) en los dispositivos médicos se está disparando, pavimentando el camino para avances potencialmente vitales; y desafíos intimidantes para las autoridades reguladoras responsables de mantener la seguridad de los nuevos productos.
Si las compañías tecnológicas logran lo que quieren, los pacientes ansiosos puede que algún día opten por conversar con un chatbot en lugar de un terapeuta humano. Un paciente que ingrese al hospital sería evaluado con una calculadora de riesgo activada con IA, y un asistente automatizado ayudaría a hacer los exámenes. Esas aplicaciones equipadas con IA, cuando se utilicen para un diagnóstico o un tratamiento, calificarían como dispositivos médicos bajo la supervisión de la Administración de Alimentos y Medicamentos (FDA); lo que significa que los creadores podrían necesitar el permiso de la entidad para comercializarlos.
La FDA es una de muchas entidades estadounidenses que luchan por encontrar las políticas correctas a medida que la revolución de la IA cobra velocidad. Desde 2020 hasta fines de 2022, la FDA aprobó más de 300 dispositivos con funciones de IA; más que durante toda la década anterior. »Tenemos un tren a exceso de velocidad que está entrando a un túnel y hay un desafío a punto de aparecer», dice Amy Abernethy, quien se desempeñó como principal subcomisionada de alimentos y medicamentos de la FDA de 2019 a 2021 y ahora es directora médica de Verily Life Sciences, una unidad de Alphabet que fabrica dispositivos médicos equipados con IA.
Durante décadas, el organismo observó los dispositivos médicos de la misma forma que lo hace con los medicamentos: como compuestos estáticos. Cuando la FDA aprueba un aparato, el fabricante puede vender esa versión. Necesita el visto bueno del regulador antes de cambiar a una nueva versión. Pero los dispositivos que cuentan con IA a menudo utilizan algoritmos diseñados para actualizarse rápidamente, o incluso aprender por su cuenta. La entidad está lidiando con el modo de abordar esta tecnología de movimiento rápido mientras garantiza que los dispositivos sigan siendo seguros.
»Uno de los beneficios clave de un producto activado con IA es que se puede mejorar con el tiempo», señala Tim Sweeney, director ejecutivo de Inflammatix, un creador de exámenes de sangre diseñados para predecir la presencia, el tipo y la severidad de una infección. Si la compañía se enterara de que un patrón particular de la respuesta inmune del organismo indica firmemente el inicio de una septicemia, por ejemplo, desearía volver a entrenar sus algoritmos para dar razón de eso. »Si tiene muchos datos extra, debería estar mejorando sus resultados», dice Sweeney.
No obstante, según el método de supervisión tradicional de la FDA, las compañías como Inflammatix probablemente tendrían que obtener un permiso adicional antes de cambiar sus algoritmos.
El organismo regulador está empezando a indicar a los creadores un camino alternativo, y en abril ofreció una orientación formal sobre cómo pueden presentar planes más flexibles para dispositivos que utilizan IA. Un fabricante puede registrar un »Plan de Control de Cambios Predeterminado» que describa las alteraciones esperadas. El personal de la FDA ?que incluye abogados, médicos y expertos tecnológicos? revisa los planes y el alcance de los cambios esperados. Una vez que se aprueba el dispositivo, la compañía puede alterar la programación del producto sin la aprobación de la FDA, siempre que los cambios sean parte del plan.
El objetivo es »garantizar que el mercado tenga cierta flexibilidad para seguir ampliando los límites de la innovación que están haciendo, mientras aún adhieren a las barreras de protección que hemos establecido cuando aprobamos un producto», explica Troy Tazbaz, director del Centro de Excelencia de Salud Digital de la FDA.
Muchos creadores de dispositivos han aplaudido la dirección de la FDA, aunque han pedido a la entidad más claridad sobre la extensión de los cambios que permitiría. »Va a ser un desafío determinar previamente, desde el inicio, cuáles son los cambios posibles que desearíamos hacer», expresa Lara Jehi, quien ha ayudado a desarrollar instrumentos de evaluación de pacientes equipados con IA en su calidad de directora de información de investigación para el Sistema de Salud Clínico de Cleveland. »Lo único que sabemos que es predecible en ciencia es que esta es impredecible».
NeuroPace, un fabricante de implantes cerebrales que tratan la epilepsia severa, consideraría un »plan de control de cambio» como parte de una nueva versión activada con IA de su dispositivo, señala Martha Morrell, directora médica de la compañía.
El aparato ahora entrega corrientes eléctricas para que detengan un ataque, y esas corrientes solo las puede alterar un médico después de revisar los datos del paciente. En el futuro, precisa Morrell, se le podría dar al dispositivo el poder de interpretar las ondas cerebrales del paciente y decidir qué corriente suministrar en tiempo real, sujeto a límites de seguridad predeterminados.
Morrell comenta que, como una »médico tipo-A», incluso ella se siente incómoda al ceder ese tipo de poder a un aparato. Pero también cree que los pacientes se van a beneficiar y que la FDA y la compañía tienen que deducir el estándar necesario para confiar en que el dispositivo será seguro.
Después de la última orientación de la FDA sobre los dispositivos de IA, predice, »habrá otra justo después de esa, y otra justo tras esa también, mientras luchamos por mantenernos al corriente de este enorme cambio».
Los críticos consideran que la nueva dirección de la FDA está posiblemente introduciendo riesgos, y señalan que ha habido casos en que los errores del software del dispositivo médico han presentado peligros graves para los pacientes. Los sistemas de IA agregan un desafío adicional, aseguran, porque los humanos a cargo de ellos no siempre entienden totalmente cómo funcionan y los posibles problemas, como los prejuicios raciales, pueden ser difíciles de medir. »La IA viene acompañada con tipos muy diferentes de daños; daños algorítmicos que son difíciles de entender y explicar», precisa Mason Marks, profesor de Derecho de Salud en la Universidad del Estado de Florida. Al permitir cambios en los complejos algoritmos sin pasar por una inspección reguladora, agrega, »la FDA les está dando a los fabricantes mucha libertad de acción».
Un vocero de la FDA afirmó que la evaluación de dispositivos de la entidad aborda los potenciales prejuicios.
En el futuro, esas preocupaciones se podrían abordar a través de una nueva política que algunos funcionarios de la FDA han analizado: exigir un monitoreo en tiempo real de los dispositivos de IA después de que salgan al mercado. Eso sería diferente del enfoque tradicional, en que el fabricante de un aparato aprobado por la FDA tiene que informar simplemente »eventos adversos» que podrían afectar a los pacientes. Las nuevas exigencias de monitoreo tendrían como objetivo asegurar que los fabricantes estén observando estrechamente el desempeño de sus algoritmos. Pero su adopción probablemente requeriría una autoridad legal que la FDA no tiene. Los grupos industriales podrían hacer presión para que la entidad no obtenga esa autoridad, si consideran que las exigencias son demasiado intrusivas.
Estos debates solo aumentarán en urgencia a medida que cada vez más creadores incorporen sistemas de IA generativa que puedan producir resultados de texto, fotos, videos y otros medios similares a los humanos.
Woebot Health ofrece un robot que espera que psiquiatras, médicos o aseguradoras recomienden para ayudar a los pacientes a trabajar en los problemas de salud mental. El bot da ánimo y responde las 24 horas y siete días de la semana. Como una medida de seguridad, indica Woebot, sus respuestas se limitan a una selección aprobada previamente por humanos. La compañía está probando el uso de un modelo de IA generativa para que ayude a entender lo que dicen los usuarios, pero se muestra cautelosa de permitir conversaciones abiertas.
La compañía comercializa su chatbot como una aplicación de apoyo a la salud mental, evitando utilizar ciertos términos, como »tratamiento», que pudieran crear la necesidad de una revisión de la FDA. Esta última tiene la autoridad para regular cualquier dispositivo destinado a utilizarse para el diagnóstico, tratamiento o prevención de una enfermedad; un mandato amplio que se aplica a muchas funciones de software médico. No hace cumplir sus normas en lo que considera como situaciones de bajo riesgo, tales como las aplicaciones de bienestar.
Woebot afirma que quiere buscar el sello de aprobación de la FDA. Pero también quiere poder comercializar su producto sin una prescripción, y llegar a una base de usuarios mucho más amplia. Las »terapias digitales» aprobadas por la FDA para la salud mental por lo general no están autorizadas para su venta directamente a los consumidores. »¿Cómo podemos asegurarnos de que estos instrumentos sean validados clínicamente pero que no requieran necesariamente una prescripción?» dice Robbert Zusterzeel, vicepresidente de Ciencia y Estrategia regulatoria de Woebot. »Existe esta opción intermedia que en algún punto la FDA tiene que observar».
Eso apunta a otro efecto potencial de las políticas de la FDA: los límites reguladores de la entidad terminan definiendo el desarrollo de productos.
»Crea una serie divertida de incentivos», comenta Ariel Dora Stern, profesora de la Escuela de Negocios de Harvard que ha estudiado la regulación de la FDA. »He conversado con emprendimientos que básicamente están yendo tras problemas más pequeños que lo que sus algoritmos pueden abordar, simplemente porque la regulación es algo a lo que no quieren acercarse».