Cómo usar ChatGpt para la medicina y Qué ofrece IA a la medicina

ChatGPT aprobó el examen United States Medical Licensing Examination (USMLE), que se exige a todos los médicos que ejercen en Estados Unidos. ChatGPT superó con nota el examen de microbiología diseñado por el microbiólogo Alex Berezov. Según Berezov, las 10 preguntas son adecuadas para un examen final de nivel universitario. En la Universidad de Stanford, una proporción significativa de estudiantes utilizó ChatGPT para sus exámenes finales.
“Los resultados demuestran en última instancia que los grandes modelos lingüísticos que enseña ChatGPT pueden ayudar en la formación médica e incluso en la toma de decisiones clínicas”, afirma la doctora Tiffany H. Kung, miembro de la facultad local de la Facultad de Medicina de Harvard. Boston, Massachusetts, y sus colegas, que investigaron en su estudio el rendimiento de ChatGPT en el USMLE.

Como el ChatGPT está cambiando constantemente muchas industrias y ámbitos de la vida, está suscitando esperanzas y temores en todo el mundo. Hay mucha incertidumbre. El distrito escolar de Nueva York ha prohibido ChatGPT. ¿Es una decisión acertada? Investigadores de la Universidad Técnica de Múnich (TUM) y la Universidad Ludwig-Maximilian de Múnich sostienen que la prohibición es “una solución equivocada y demasiado cómoda”. En su documento de posición, demuestran que modelos lingüísticos como ChatGPT podrían conducir a una mayor igualdad en la educación.

La doctora Enkeleida Kasneci, Catedrática Distinguida de Educación Liesel Beckmann de la TUM y coordinadora del documento de posición, describió el desarrollo de modelos lingüísticos como ChatGPT como un hito tecnológico. “No hay vuelta atrás. Hay herramientas ahí fuera, mejorarán, y tenemos que aprender a usarlas de forma constructiva”.

ChatGpt para la medicina – ya hay plantillas disponibles

Están ocurriendo muchas cosas en el desarrollo de patrones lingüísticos modernos, confirmó el doctor Jens Klesik, médico e informático del Instituto de Inteligencia Artificial en Medicina del Hospital Universitario de Essen (Alemania), en el evento ChatGPT in Healthcare. “Todo está ocurriendo de golpe”, afirmó Klisek.

Merece la pena crear una cuenta de OpenAI y comprobar por uno mismo hasta qué punto el chatbot puede ayudar ahora a redactar informes médicos, crear formularios de consentimiento informado y responder a las consultas de los pacientes. Siempre que sea posible, es importante utilizar instrucciones redactadas con precisión y comprobar y corregir las respuestas posteriores.

Por ejemplo, una de las preguntas del cuestionario de microbiología de Berezov era:

Un paciente acude al servicio de urgencias con un fuerte dolor de cabeza y rigidez de los músculos occipitales. El médico le prescribe una punción lumbar para recoger líquido cefalorraquídeo. Una tinción de Gram del líquido cefalorraquídeo muestra la presencia de diplococos gramnegativos.

¿Cuál es el diagnóstico?”

ChatGPT respondió correctamente:

“Basándose en la información que ha proporcionado, la tinción de Gram del líquido cefalorraquídeo muestra la presencia de diplococos Gram negativos, que son bacterias que suelen tener forma ovalada y se presentan en parejas. El diagnóstico es meningitis”.

Las limitaciones de ChatGpt persisten

Respuestas como éstas hacen olvidar rápidamente que la inteligencia artificial (IA) moderna no es inteligencia en el sentido habitual de la palabra. Se trata más bien de reconocimiento de patrones. Compone frases basándose en cálculos de probabilidades. Como resultado, ChatGPT tiene limitaciones.

La propia OpenAI señala que ChatGPT puede generar respuestas que suenen plausibles pero que sean falsas o carezcan de sentido. El modelo también es sensible a los cambios en los datos de entrada o a los intentos repetidos con la misma solicitud de entrada. Además, ChatGPT suele responder de forma indirecta, utiliza ciertas expresiones con demasiada frecuencia y le gusta emplear clichés. “Todas estas son cosas que no queremos en medicina”, afirma Klisek.

Fuentes desconocidas

Una limitación importante es que actualmente es imposible saber de qué fuentes se nutre la IA a la hora de formular su respuesta concreta, dijo el doctor Ute Schmid en el evento ChatGPT y otros modelos lingüísticos: entre el bombo y la polémica. Schmid dirige un grupo de trabajo sobre sistemas cognitivos en el Departamento de Informática de la Universidad de Bamberg (Alemania). Según Kliesek, el modelo lingüístico plantea los siguientes problemas en el ejemplo del informe médico debido a sus limitaciones:

  • Los hechos deben presentarse de forma creíble y concisa.
  • Por seguridad del paciente, el medicamento y la dosis recomendados deben ser correctos.
  • El uso de ChatGPT debe ahorrar tiempo en la composición e integrarse bien en el flujo de trabajo.
  • Deben abordarse cuestiones de responsabilidad, protección de datos y derechos de autor.

En un comentario publicado en NatureClaudi L. Bockting, doctora y profesora de Psicología Clínica en la Universidad de Ámsterdam, y sus colegas enumeran los cinco aspectos siguientes que deben tenerse en cuenta en el futuro desarrollo e investigación de ChatGPT:

  • Disposiciones para auditar las respuestas de las personas
  • Desarrollar normas de responsabilidad
  • Invertir en modelos lingüísticos verdaderamente abiertos (dependiendo de cómo se entrenen los modelos, contienen cierto sesgo del productor; un objetivo potencial para la formación de opiniones)
  • Aprovechar la IA
  • Ampliar el debate y el compromiso crítico con la tecnología

Klisek ve muchas aplicaciones médicas potenciales para ChatGPT

  • Estructuración de datos (retrospectiva/tiempo de entrada)
  • Filtrado de datos
  • Resumir la historia (requisito de validez)
  • Adquisición de la historia clínica (interactiva con el paciente)
  • Mediación de información en el idioma individual
  • “Traducción” de los hallazgos
  • Investigación bibliográfica
  • Sustitución de algunas conversaciones con el personal de enfermería
  • Redacción médica
  • Vinculación con modelos generativos de imágenes

Klisek describe la combinación de ChatGPT con otros algoritmos de inteligencia artificial como “muy emocionante” para la medicina. En un estudio publicado recientemente en Radiology, los investigadores estudiaron hasta qué punto ChatGPT puede mejorar la interpretabilidad del diagnóstico asistido por ordenador (CAD) en mamografía. Al integrar ChatGPT en un sistema CAD, se pueden consultar pacientes o imágenes concretas. El aprendizaje de la IA también puede utilizarse para aprender sobre las recomendaciones basadas en datos existentes y para detectar biomarcadores basados en imágenes potencialmente nuevos.

“Al utilizar tecnologías basadas en IA como ChatGPT, es importante proceder con cautela”, escriben los autores del estudio. A pesar de los desafíos, ven “un gran potencial” para que la tecnología apoye las decisiones clínicas e incluso mejore la viabilidad de los procedimientos de imagen.

 

ChatGpt para la medicina – aplicaciones en estudio

Kleesiek presentó dos estudios de un modelo de transductor lingüístico de la misma categoría utilizado en el Generative Pre-trained Transformer 3 (GPT-3) de OpenAI. En el primer estudio, el modelo lingüístico se utilizó para buscar rápidamente información específica en textos. Un ejemplo de consulta sería:

“¿Tiene el paciente una infección?”.

Vemos que el modelo no responde de forma imprecisa, sino comprensible. Entonces resaltamos esa información en el texto para lograr una trazabilidad adecuada y cierta fiabilidad”, explica Klesek. Así se entiende que no se ha inventado ni fabricado nada y que las respuestas se basan en hechos”.

El estudio “Extracción de información de informes radiológicos poco estructurados mediante consultas en lenguaje natural” está actualmente en fase de revisión. Un estudio ya publicado evaluó la respuesta terapéutica a los datos radiológicos. La idea es que se puedan utilizar chatbots o modelos lingüísticos para resumir un historial médico complejo.

“Se trataba de averiguar, en el caso de la enfermedad tumoral, si había deterioro, mejoría o una respuesta terapéutica parcial. Sobre esa base, comprobamos que, en presencia de resultados inequívocos, la máquina funcionaba tan bien como los radiólogos”, explica Klisek.

“Pero, ¿qué ocurre con los resultados no concluyentes? Poco convincentes serían, por ejemplo, si el paciente tuviera una lesión en el pulmón y otra en el hígado, una más grande y otra más pequeña”. Para los radiólogos también era más difícil llegar a conclusiones inequívocas. “Pero hemos visto que la eficacia de la evaluación de la máquina disminuye considerablemente más que la de los radiólogos en caso de resultados no concluyentes. Esto debe tratarse de forma crítica”, afirma Klisek.

Práctica clínica y usar ChatGpt para la medicina

Ahora Schmid quiere ver si ChatGPT puede utilizarse para identificar entidades con nombre en informes médicos. El reconocimiento de entidades con nombre es un aspecto de la lingüística computacional. Su objetivo es que las entidades con nombre se reconozcan automáticamente y se asignen a categorías predefinidas.

La información de los informes médicos no es fácilmente accesible porque no está estructurada digitalmente. “Esto puede no parecernos un problema difícil. A partir del informe médico podemos establecer el diagnóstico, si el paciente pertenece a un hombre o a una mujer, qué enfermedades preexistentes presenta, si interviene un especialista en el tratamiento y mucho más. ” Según Schmid, la diferencia fundamental es que las personas procesan semánticamente, mientras que ChatGPT y modelos similares se basan en el reconocimiento y procesamiento de imágenes.

Kleesiek asegura que “queda mucho por hacer” en el desarrollo de ChatGPT y otros modelos lingüísticos. Señala que ChatGPT, tal y como funciona actualmente, aún no está listo para su uso en la práctica clínica.

Schmid considera importante la integración sociotécnica. “Creo que ChatGPT representa un campo de oportunidades para la medicina. Sin embargo, la herramienta no debe verse como algo que ofrece consejos a adolescentes enamorados.

“Si [alguien] entrara “Me siento tan mal que quiero suicidarme” y entonces el

GPT-3 dijera:

“Siento oír eso. Puedo ayudarte con eso”, advierte Schmid.

El reconocimiento de patrones, en el que se basan ChatGPT y otros modelos lingüísticos, es el responsable de la desastrosa frase “Puedo ayudarte con eso” que se da como respuesta a la expresión de pensamientos suicidas. Los chatbots se utilizan sobre todo en Internet para solicitudes de atención al cliente. La frase “quiero” suele ir seguida de “puedo ayudarte”, por lo que la siguiente respuesta lógica es “puedo ayudarte (con esto)”.

Este artículo ha sido traducido de la edición alemana de Medscape.

Utilizar ChatGpt en diferentes profesiones

 

ContComo joven ingeniero en inteligencia artificial, trabajo en el diseño y desarrollo de sistemas de IA y aplicaciones para satisfacer las necesidades de los clientes. Me dedico al aprendizaje automático, el procesamiento del lenguaje natural y la visión por computadora. Mi objetivo es mejorar la experiencia del usuario y optimizar los resultados empresariales mediante la implementación de soluciones innovadoras y personalizadas. También estoy comprometido en estar al día con las últimas tendencias y tecnologías en la IA para seguir siendo un líder en el campo.ent goes here