Washington intenta ponerse al día con el uso de la inteligencia artificial en el sector de salud

Legisladores y reguladores de Washington han empezado a plantearse cómo regular la inteligencia artificial (IA) en la atención de salud, y la industria de la IA cree que es muy probable que lo hagan mal.

“Es un problema de enormes proporciones”, afirmó Bob Wachter que preside el Departamento de Medicina de la Universidad de California-San Francisco (UCSF). “Existe el riesgo de que se use artillería pesada y regulemos en exceso”.

El impacto de la IA en el sector de salud ya es generalizado. La Administración de Alimentos y Medicamentos (FDA) ha aprobado unos 692 productos de inteligencia artificial.

Los algoritmos ayudan a programar las citas de los pacientes, determinar la dotación de personal en las salas de emergencias e incluso transcribir y resumir las visitas clínicas para ahorrarle tiempo a los médicos. También han empezado a ayudar a los radiólogos a leer resonancias magnéticas y radiografías. Wachter dijo que a veces consulta una versión de GPT-4, un gran modelo lingüístico de la empresa OpenAI, para casos complejos.

El impacto de la IA —y el potencial de futuros cambios— significa que los gobiernos ya deben estar poniéndose al día.

“Los legisladores están terriblemente atrasados”, aseguró en un correo electrónico Michael Yang, gerente de OMERS Ventures, una empresa de capital riesgo. Los colegas de Yang han realizado grandes inversiones en el sector. Rock Health, una compañía similar, declaró que financistas han invertido casi $28,000 millones en empresas de salud digital especializadas en inteligencia artificial.

Según Wachter, uno de los problemas a los que se enfrentan los reguladores es que, a diferencia de los medicamentos, que dentro de cinco años tendrán los mismos componentes químicos que hoy, la IA cambia constantemente.

Por eso, la Casa Blanca ha creado una gestión junto con agencias centradas en la salud para elaborar normas que garanticen la transparencia y la privacidad en el uso de la IA en el campo médico. El Congreso también ha mostrado interés. El Comité de Finanzas del Senado tuvo una audiencia el 8 de febrero sobre la IA en la atención de salud.

Junto con la regulación y la legislación, aumenta la actividad de los grupos de presión. Una investigación de CNBC mostró que hubo un aumento del 185% en el número de organizaciones que divulgaron actividades de lobby sobre IA en 2023.

La compañía TechNet ha lanzado una iniciativa de $25 millones, que incluye la compra de anuncios de televisión, para educar a la audiencia sobre los beneficios de la inteligencia artificial.

“Es muy difícil saber cómo regular la IA de manera inteligente, ya que estamos en una fase muy temprana de invención de la tecnología”, dijo en un correo electrónico Bob Kocher, socio de la empresa de capital de riesgo Venrock, que anteriormente trabajó en la administración Obama.

Kocher ha hablado con senadores sobre la regulación de la IA. Destaca algunas de las dificultades a las que se enfrenta el sistema de salud a la hora de adoptar estos productos. Los médicos, que enfrentan riesgos de mala praxis, podrían mostrarse recelosos a la hora de utilizar tecnología que no entienden para tomar decisiones clínicas.

Un análisis de los datos de la Oficina del Censo de enero, realizado por la consultora Capital Economics, reveló que el 6,1% de las empresas de salud tenía previsto utilizar IA en los próximos seis meses, aproximadamente en la mitad de los 14 sectores encuestados.

Como cualquier producto médico, los sistemas de IA pueden plantear riesgos para los pacientes, a veces de forma curiosa. Un ejemplo: pueden inventar cosas.

Wachter recuerda que un colega, a modo de prueba, encargó a GPT-3 de OpenAI que redactara una carta de autorización a una aseguradora para una receta deliberadamente “descabellada”: un anticoagulante para tratar el insomnio de un paciente.

Pero la IA “escribió una carta preciosa”, dijo. El sistema citó “bibliografía reciente” de forma tan convincente que la colega de Wachter, por un momento, se preguntó si se le había escapado una nueva línea de investigación. Resultó que el chatbot se lo había inventado.

También existe el riesgo de que la IA agrave los prejuicios ya presentes en el sistema de salud. Históricamente, las personas de color han recibido menos atención que los pacientes blancos no hispanos. Estudios muestran, por ejemplo, que los pacientes negros con fracturas tienen menos probabilidades de recibir analgésicos que los blancos no hispanos. Este sesgo puede quedar grabado cuando la inteligencia artificial se entrena con esos datos y posteriormente actúa.

La investigación sobre la IA desplegada por grandes aseguradoras ha confirmado que eso ya ha ocurrido. Pero el problema está más extendido. Wachter explicó que la UCSF probó un producto para predecir las ausencias en las citas médicas. Los pacientes con pocas probabilidades de acudir a una visita tienen más probabilidades de que se les agende una cita dos veces.

La prueba demostró que las personas de color tenían más probabilidades de faltar a la cita. Independientemente de que el resultado fuera exacto o no, “la respuesta ética es preguntarse a qué se debe y si hay algo que se pueda hacer”, dijo Wachter.

Dejando a un lado las exageraciones, es probable que estos riesgos sigan acaparando la atención con el paso del tiempo. Expertos en IA y responsables de la FDA han insistido en la necesidad de algoritmos transparentes, supervisados a largo plazo por seres humanos: reguladores e investigadores externos. Los productos de IA se adaptan y cambian a medida que se incorporan nuevos datos. Y los científicos desarrollarán nuevos productos.

Los formuladores de leyes tendrán que invertir en nuevos sistemas para hacer un seguimiento de la IA a lo largo del tiempo, aseguró la rectora de la Universidad de Chicago, Katherine Baicker, que testificó en la audiencia del Comité de Finanzas. “El mayor avance es aquel en el que aún no hemos pensado”, dijo en una entrevista.

Exit mobile version