Publicación: Identificación y explicación de patrones de error en modelos predictivos. Aplicación al diagnóstico de declive cognitivo
dc.contributor.author | Blanco Córdoba, David | |
dc.contributor.director | Rincón Zamorano, Mariano | |
dc.contributor.director | Díaz López, Estela | |
dc.date.accessioned | 2025-10-02T11:30:07Z | |
dc.date.available | 2025-10-02T11:30:07Z | |
dc.date.issued | 2025-09 | |
dc.description.abstract | En los últimos años, los modelos de inteligencia artificial han alcanzado un alto rendimiento en tareas complejas. Sin embargo, su carácter opaco dificulta la interpretación de sus decisiones. Esta falta de transparencia resulta especialmente crítica en el ámbito clínico, donde las predicciones automáticas deben ir acompañadas de justificaciones comprensibles que apoyen la toma de decisiones médicas. En este contexto, la explicabilidad no sólo permite aumentar la confianza de los profesionales de la salud, sino también detectar sesgos y errores que podrían tener consecuencias graves para los pacientes. Partiendo de esta necesidad, este trabajo aborda el uso de técnicas de explicabilidad en inteligencia artificial (XAI por sus siglas en inglés) con el objetivo de evaluar los errores cometidos por modelos predictivos en el contexto clínico, en concreto, en el diagnóstico de declive cognitivo temprano. Su análisis puede ayudar a identificar en qué casos los modelos no resultan fiables, lo cual es especialmente importante para los expertos en el dominio de la salud. Para ello se ha empleado principalmente el método SHAP (SHapley Additive exPlanations) y se han generado explicaciones de las predicciones erróneas, que han sido agrupadas y posteriormente analizadas para detectar patrones comunes. Los resultados sugieren que los errores se concentran en regiones del espacio de entrada con menor densidad, lo que subraya la necesidad de explorar flujos diagnósticos alternativos que permitan mejorar la fiabilidad en estas instancias atípicas. | es |
dc.description.abstract | In recent years, artificial intelligence models have achieved high performance in complex tasks. However, their opaque nature makes it difficult to interpret their decisions. This lack of transparency is particularly critical in the clinical domain, where automatic predictions must be accompanied by understandable justifications that support medical decision-making. In this context, explainability not only helps increase the confidence of healthcare professionals in these tools, but also facilitates the detection of biases and errors that could have serious consequences for patients. Building on this need, this work addresses the use of explainable artificial intelligence techniques (XAI ) with the aim of evaluating the errors made by predictive models in the clinical setting, specifically in the diagnosis of early cognitive decline. Such analysis can help identify cases in which models are not reliable, which is especially relevant for domain experts in healthcare. To this end, the method primarily employed was SHAP (SHapley Additive exPlanations). Explanations of erroneous predictions were then generated, clustered, and subsequently analyzed to detect common patterns. The results suggest that errors tend to concentrate in lower-density regions of the input space, underscoring the need to explore alternative diagnostic workflows that could improve reliability in these atypical instances. | en |
dc.identifier.citation | Blanco Córdoba, David. Trabajo Fin de Máster: "Identificación y explicación de patrones de error en modelos predictivos. Aplicación al diagnóstico de declive cognitivo". Universidad Nacional de Educación a Distancia (UNED), 2025 | |
dc.identifier.uri | https://hdl.handle.net/20.500.14468/30306 | |
dc.language.iso | es | |
dc.relation.center | E.T.S. de Ingeniería Informática | |
dc.relation.degree | Máster universitario en Ingeniería y Ciencia de Datos | |
dc.rights | info:eu-repo/semantics/openAccess | |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/4.0/deed.es | |
dc.subject | 1203.17 Informática | |
dc.subject.keywords | XAI | es |
dc.subject.keywords | SHAP | es |
dc.subject.keywords | diagnóstico médico | es |
dc.subject.keywords | XAI | en |
dc.subject.keywords | SHAP | en |
dc.subject.keywords | medical diagnosis | en |
dc.title | Identificación y explicación de patrones de error en modelos predictivos. Aplicación al diagnóstico de declive cognitivo | es |
dc.type | tesis de maestría | es |
dc.type | master thesis | en |
dspace.entity.type | Publication |
Archivos
Bloque original
1 - 1 de 1
Cargando...
- Nombre:
- BlancoCordoba_David_TFM_JORGE PEREZ MARTIN.pdf
- Tamaño:
- 4.96 MB
- Formato:
- Adobe Portable Document Format
Bloque de licencias
1 - 1 de 1
No hay miniatura disponible
- Nombre:
- license.txt
- Tamaño:
- 3.62 KB
- Formato:
- Item-specific license agreed to upon submission
- Descripción: