Los Modelos de Lenguaje Grandes (LLMs), la tecnología detrás de herramientas como ChatGPT, ya son parte de nuestra vida cotidiana: redactan correos, planifican viajes y nos ayudan a organizar el día.
Pero cuando esta misma tecnología entra en la oncología —un campo donde cada decisión cuenta—, surgen nuevas preguntas: ¿cómo garantizar su uso responsable? ¿Dónde están los límites?
Para responderlas, la Sociedad Europea de Oncología Médica (ESMO) ha publicado la primera guía formal sobre inteligencia artificial en la práctica clínica oncológica: ELCAP (ESMO guidance on the use of Large Language Models in Clinical Practice). Este marco pionero que busca garantizar que los LLMs se apliquen de forma segura, ética y clínicamente validada.
No existe “una sola IA”: tres categorías para entender su uso
Una de las principales aportaciones del documento es que no toda la IA en oncología es igual. ELCAP propone una clasificación en tres tipos de herramientas, según quién las usa y cómo se integran:
- Tipo 1: Herramientas de cara al paciente
Aplicaciones que los pacientes o cuidadores utilizan directamente, como chatbots de información médica o seguimiento de efectos secundarios.
👉 Clave: deben complementar —nunca sustituir— la atención profesional. - Tipo 2: Herramientas para profesionales sanitarios
Asistentes para redactar informes, traducir información o resumir evidencia científica.
👉 Requisito: verificación frente a guías clínicas y supervisión médica continua. - Tipo 3: Sistemas de fondo institucional
Integrados en los historiales médicos electrónicos, ayudan a extraer datos clínicos o identificar candidatos para ensayos.
👉 Condición: requieren validación constante y gobernanza institucional.
Esta clasificación es más que una simple taxonomía; es un acto de claridad fundamental. Obliga a todos —desarrolladores, médicos y pacientes— a dejar de hablar de "IA" como sistema cerrado y a empezar a debatir los riesgos y promesas de cada aplicación de forma precisa y responsable.
Regla de oro para los pacientes: la IA aconseja, pero el médico decide
La guía ELCAP lo dice sin rodeos: “No permita que los resultados de un chatbot anulen las recomendaciones de su médico.”
Los LLMs pueden cometer “alucinaciones”: generar respuestas aparentemente correctas pero falsas. En oncología, ese tipo de error puede tener consecuencias graves. Por eso, toda información generada por IA debe revisarse con el equipo médico.
Más tecnología para ganar tiempo humano
Paradójicamente, la IA más útil para los médicos no es la que toma decisiones clínicas, sino la que reduce su carga administrativa.
Los modelos de lenguaje pueden redactar informes, resumir literatura o traducir notas clínicas, liberando tiempo para la atención directa al paciente.
En una era en la que la tecnología a menudo se percibe como una barrera, la IA puede convertirse en la herramienta que devuelva humanidad a la práctica médica.
El poder de la IA que no se ve
Los sistemas de Tipo 3 operan silenciosamente en el corazón de las instituciones sanitarias, optimizando procesos a gran escala:
- Extracción automática de datos clínicos: leer y estructurar información clave (biomarcadores, estadio, tratamiento).
- Matching de pacientes con ensayos clínicos: automatizar el cruce de historiales y criterios de inclusión.
Su eficacia, sin embargo, depende de la calidad de los datos de origen. Una mala documentación puede multiplicar errores, por lo que la supervisión humana sigue siendo indispensable.
Conclusión: una herramienta, no un oráculo
El mensaje central de la guía es claro: los LLMs son herramientas de asistencia increíblemente potentes, pero no reemplazan el juicio humano. La supervisión, el criterio clínico y la comunicación directa siguen siendo el núcleo de una atención oncológica de calidad.
Médicos, pacientes, hospitales y desarrolladores comparten una responsabilidad colectiva: usar esta tecnología con rigor, transparencia y ética.
La guía actual aborda la IA asistida por humanos, pero la gran pregunta del futuro ya está sobre la mesa:
¿Qué sucederá cuando la IA deje de ser asistente y empiece a decidir?
La revolución de la IA en oncología ya está en marcha.
No se trata de frenar la innovación, sino de dirigirla con criterio, evidencia y humanidad.
ELCAP marca el camino: integrar la inteligencia artificial sin perder de vista lo esencial —la seguridad, la vida y la confianza del paciente.
¿Qué puede hacer tu organización ahora?
- Revisa tus políticas internas sobre IA clínica.
Evalúa cómo se están utilizando los modelos de lenguaje en tu institución y asegúrate de que existan protocolos claros de validación y supervisión.
- Forma a tus equipos en seguridad y validación de LLMs.
La alfabetización en IA ya no es opcional: médicos, investigadores y gestores necesitan entender cómo funcionan estos modelos y cuáles son sus límites.
- Colabora con expertos en ética digital y regulación sanitaria.
En MEEDIA Health compartimos esta visión. Creemos que la inteligencia artificial puede transformar la oncología si se aplica con rigor, ética y propósito.
Acompañamos a las organizaciones del sector salud en su proceso de digitalización, ayudándolas a integrar la IA de forma segura, estratégica y humana.
Referencia: Wong EYT, et al. ESMO guidance on the use of Large Language Models in Clinical Practice (ELCAP). Ann Oncol. 2025 Oct 18:S0923-7534(25)04698-8. doi: 10.1016/j.annonc.2025.09.001.
También te puede interesar
Artículos Relacionados

¿Puede un asistente GPT ser más ágil y escalable sin un “super prompt” inmanejable?

El Desafío Universal de Envejecer Bien en Nuestro Propio Hogar



Aún no hay comentarios
Cuéntanos qué opinas