Examinar
Envíos recientes
Publicación Detección de vulnerabilidades y comportamientos anómalos en API RESTs mediante algoritmos de Machine Learning(2025-09) Vercher Gómez, Eustaquio; Tobarra Abad, María de los LlanosLa expansión de los servicios digitales y arquitecturas distribuidas ha situado a las APIs REST como un componente crítico para la interoperabilidad de aplicaciones web, móviles, servicios en la nube y dispositivos IoT. Su papel central en la economía digital, gestionando información altamente sensible, las ha convertido en un objetivo prioritario para los ciberataques. Las limitaciones de los mecanismos tradicionales de monitorización, incapaces de detectar patrones complejos o ataques a aplicaciones de negocio, han puesto de relieve la necesidad de enfoques más dinámicos y adaptativos. En este contexto, el uso de técnicas de Machine Learning tanto supervisadas como no supervisadas ofrece un marco prometedor para la detección de anomalías en el tráfico API, al permitir el análisis de grandes volúmenes de datos y la identificación de comportamientos atípicos sin requerir conocimiento previo de las amenazas existentes. El presente trabajo aborda esta problemática con una doble motivación: por un lado, la necesidad práctica de reforzar la seguridad de las APIs REST frente a ataques cada vez más sofisticados; por otro, el interés académico en explorar la viabilidad de los algoritmos de Machine Learning como herramientas aplicadas a la ciberseguridad.Publicación Machine Learning techniques to detect manoeuvres in GEO satellites(2025-09) Tirado Vélez, Jesús; Sarro Baro, Luis ManuelLa rápida expansión de las actividades espaciales y la proliferación de objetos en órbita aumentan la complejidad de la vigilancia espacial y el riesgo de colisiones, lo que requiere de unas capacidades de detección de maniobras más automatizadas y robustas. Los métodos tradicionales de detección de maniobras de satélites basados en comprobaciones de consistencia de la propagación orbital y el análisis estadístico de valores atípicos con umbrales diseñados manualmente pueden tener dificultades ante comportamientos anómalos o ruidosos. Este trabajo propone y compara diferentes modelos de aprendizaje automático para detectar maniobras de reposicionamiento de satélites GEO a partir de una serie de datos temporal de TLEs públicos. El estudio analiza un conjunto de datos de cinco años con casi 5 millones de TLEs de 1.449 objetos GEO. Esta serie de datos ha sido procesada para obtener la posición geográfica de los satélites (latitud, longitud y altitud) muestreada diariamente. El conjunto de datos se ha extendido con las maniobras de reposicionamiento etiquetadas mediante un sencillo algoritmo de detección cuya salida se ha depurado manualmente para suprimir falsos positivos. Se han evaluado cuatro modelos de aprendizaje automático Red Neuronal Convolucional (CNN), red Long Short-Term Memory (LSTM), Transformer y Random Forest— y sus resultados se han comparado sistemáticamente tras ajustar los hiperparámetros mediante grid search y validación cruzada (3-fold ). Las métricas empleadas para la comparación han sido la matriz de confusión, la precisión (accuracy) y el tiempo de entrenamiento. También se ha comparado el rendimiento de los distintos modelos en función de los días transcurridos desde el inicio de la maniobra para evaluarlos en un escenario cercano a las operaciones rutinarias de vigilancia espacial. Este estudio demuestra que los modelos de aprendizaje automático pueden identificar eficazmente maniobras de reposicionamiento GEO en series TLE, ofreciendo un complemento a las técnicas tradicionales de mantenimiento de catálogo. Trabajos futuros podrían abordar la reducción de falsas alarmas en contextos operacionales como éste, altamente desbalanceados, la localización temporal precisa de la maniobra y la extrapolación de este estudio a otros regímenes orbitales.Publicación Comparativa de procesos de diarización automática(2025-09) Sáenz De Cosca Lacalle, Daniel; Pérez Martín, Jorge; Rodrigo Yuste, ÁlvaroEste trabajo intenta ser una aportación más al mundo del Reconocimiento del Habla Automatizado (ASR por sus siglas en inglés, Automatic Speech Recognition), cuya historia y avances van emparejados a los de la Inteligencia Artificial. Entre los campos de esta disciplina se encuentra la Diarización, consistente en identificar las voces de los distintos interlocutores de un audio. Esta disciplina, más compleja de lo que pudiera parecer en un principio, ha motivado diversos estudios en los últimos años. Este trabajo se centra en la obtención de diarizaciones a partir de subtítulos y en la evaluación de éstas con respecto a las diarizaciones de referencia. Para ello, se hace un estudio, tanto de las métricas de error de diarización obtenidas, como del rendimiento en tiempo. Además de esto y en aras de contribuir a conseguir unos subtítulos de alta calidad, se quiere cumplir con determinados apartados del estándar UNE 153010:2012: “Subtitulado para personas sordas y personas con discapacidad auditiva” relacionadas con la diarización; para ello se ha realizado un proceso que contribuye a la mejora de los subtítulos. El desarrollo se ha realizado utilizando tecnología de contenedores, lo que facilita la realización de pruebas aisladas en las condiciones deseadas, algo muy interesante en los experimentos y comparativas que se lleven a cabo.Publicación Applications of Deep Learning Techniques to the design of cell-free massive MIMO networks(2025-09) Riera Palou, Felip; Cuadra Troncoso, José ManuelEsta tesis de master estudia la aplicación de deep neural networks (DNNs) para el diseño de redes cell-free massive MIMO (CF-mMIMO), una topología novedosa destinada a revolucionar las comunicaciones móviles de sexta generación (6G). Más concretamente, el trabajo aborda el diseño de la estrategia de asignación de potencia, es decir, determinar cuánta potencia se asigna a cada usuario con el fin de optimizar una determinada métrica de rendimiento relacionada con la eficiencia espectral. A diferencia de las estrategias clásicas de asignación de potencia, que suelen basarse en métodos de optimización matemática complejos, el enfoque con DNNs establece una relación entre la información de canal a gran escala (vinculada a las posiciones entre usuarios y puntos de acceso (APs)) a los coeficientes de potencia. Es muy destacable que esta función de mapeo es computacionalmente trivial durante la operación en tiempo real de la red móvil, a costa de requerir una fase de entrenamiento costosa que, convenientemente, puede llevarse a cabo como un pre-procesado (i.e., off-line). Los resultados demuestran que la asignación de potencia basada en DNNs funciona a la par de la técnica de referencia (i.e., fractional power allocation (FPA)) para una amplia variedad de configuraciones (p. e., diferentes cargas de red, distintas técnicas de procesamiento, diferentes objetivos de eficiencia espectral). Además, también se ha propuesto una estrategia basada en aprendizaje por transferencia para generalizar la aplicabilidad de un modelo DNN entrenado para una carga de red específica a otra diferente, sin necesidad de reentrenar el modelo completo.Publicación Análisis del consumo energético de redes neuronales profundas(2025-09) Quesada Pablos, Alberto; Pastor Vargas, Rafael; Haut Hurtado, Juan MarioEste Trabajo Fin de Máster se sitúa en el contexto del creciente consumo energético asociado al entrenamiento y uso de modelos de inteligencia artificial, especialmente los basados en redes neuronales profundas (Deep Learning). Como respuesta a esta problemática, se ha de- sarrollado una herramienta de monitorización denominada Energy Report System (ERS), orientada al análisis del consumo energético y las emisiones de carbono asociadas a procesos de entrenamiento e inferencia de modelos de aprendizaje profundo. El objetivo principal es proporcionar una solución que permita evaluar el impacto computacional y ambiental de estos modelos, integrando métricas de uso de recursos y estimaciones de huella de carbono en función de la ubicación geográfica. ERS ha sido implementado para sistemas Linux y es capaz de registrar métricas relacionadas con la CPU, GPU, memoria y temperatura, a nivel de sistema, proceso e incluso bloques de código específicos. Se ha desarrollado además una métrica compuesta que combina precisión del modelo, consumo energético, emisiones de carbono y tiempo de ejecución, con el fin de facilitar comparaciones entre distintos modelos. Para validar la herramienta, se han entrenado y evaluado cuatro arquitecturas de redes neuronales (ResNet-18, VGG-19, GoogLeNet v1 y MobileNetV2) utilizando el conjunto de datos CIFAR-10. Durante estos experimentos, se ha recogido información detallada sobre el comportamiento energético de cada modelo en los procesos de entrenamiento e inferencia en dos sistemas de pruebas. El sistema desarrollado constituye una herramienta de apoyo al análisis de eficiencia en entornos de machine learning y puede ser útil en futuras investigaciones orientadas a mejorar la sostenibilidad de los modelos de IA.Publicación Generación de datos sintéticos mediante Redes Generativas Adversarias (GANs) para la evaluación automatizada del Test De la Figura Compleja de Rey-Osterrieth(2025-09) Pérez Gallego, Silvia; Rincón Zamorano, MarianoThis Masterś Thesis explores the application of Generative Adversarial Networks (GANs) for the generation of synthetic data in the Rey-Osterrieth Complex Figure (ROCF) test. The main objective is to mitigate the scarcity of real data, which currently limits the training of artificial intelligence models aimed at the automatic evaluation of this neuropsychological test. For this purpose, StyleGAN2-ADA was employed, an architecture particularly suitable for scenarios with small datasets. The experiment was conducted using a dataset of only 428 images in total, within a conditional and imbalanced setting. The results reveal significant limitations: low intra-class diversity, limited semantic preservation, and bias toward majority classes. However, it was observed that the model partially captured the ordinal structure of the scoring system, generating images that, as the class value increased, tended to more closely resemble the original Rey-Osterrieth figure. In conclusion, although the results show constraints in fidelity and variability, the proposal confirms the feasibility of GANs as a data augmentation strategy in this domain. Future work includes assessing the impact of synthetic data on automatic scoring models, exploring transfer learning techniques to enhance generation quality, and applying the methodology to other clinical tests with limited data availability.Publicación Detection of authorship in texts by multiple authors(2025-09) Hutton, Alexander Richard ; Rodrigo Yuste, Álvaro; Pérez García-Plaza, AlbertoEl objetivo de este trabajo de fin de máster es la identificación de autoría en artículos escritos por múltiples autores. Este trabajo establece un conjunto novedoso de características que son independientes del idioma y del tema tratado y que se obtienen, no del contenido sintáctico o léxico del documento, sino a partir de como un autor individual lo escribe utilizando el sistema de composición de textos LATEX. Como base de la investigación se crea una base de artículos científicos en la cual el contenido de cada artículo está disponible en forma de chero de código fuente de LATEXy también en una versión de texto simple sin los comandos de LATEX. Se implementa un algoritmo preexistente disponible en la literatura científica para la identificación de autoría en artículos escritos por múltiples autores que usa características léxicas y sintácticas y se adapta para usar las características basadas en LATEX . Primero se establece una referencia aplicando el algoritmo con características léxicas y sintácticas, y después el algoritmo se evalúa una segunda vez con características LATEX . Finalmente se comparan los resultados de los dos tipos de características. Los resultados muestran que las características basados en LATEX son eficaces en la identificación de los autores de tramos de texto dentro de un documento largo y que su uso en la identificación de autoría en artículos escritos por múltiples autores dan resultados comparables a los basados en características estilométricas tradicionales, aunque no alcanzan la misma precisión.Publicación Aplicación de redes siamesas y técnicas contrastivas sobre datos tabulares para el diagnóstico del deterioro cognitivo(2025) López Pombero, Berta; Rincón Zamorano, MarianoAplicar técnicas de inteligencia artificial en el ámbito sanitario supone un desafío debido a la escasez de datos etiquetados, el tamaño reducido de los conjuntos disponibles y la necesidad de interpretabilidad en los modelos. Detectar el deterioro cognitivo de forma precoz es una prioridad en el ámbito clínico, especialmente en fases iniciales donde las intervenciones tempranas pueden mitigar significativamente su progresión. Este trabajo explora la aplicabilidad de técnicas de aprendizaje contrastivo, incluyendo redes siamesas (offline y online), SimCLR, SupCon, Joint Contrastive Classifier y Triplet Loss, para generar representaciones discriminativas a partir de un conjunto real de datos clínicos con solo 314 muestras. Para ello, se ha desarrollado una metodología experimental, que incluye la comparación de funciones de distancia, estrategias de generación de pares y técnicas de balanceo, tanto clásicas como aplicadas durante el entrenamiento. Los modelos contrastivos se han evaluado sobre tres subconjuntos binarios y uno multiclase, y sus resultados se han comparado con modelos clásicos de aprendizaje automático. Los experimentos muestran que, aunque las técnicas contrastivas resultan competitivas en tareas binarias más simples, los modelos clásicos mantienen una ventaja general, especialmente en escenarios multiclase más complejos. Los resultados obtenidos mediante aprendizaje contrastivo refuerzan el valor de este enfoque como herramienta complementaria para el diagnóstico temprano en contextos reales con escasez de datos, donde el tamaño limitado de las muestras representa una barrera habitual para la aplicación de métodos avanzados de inteligencia artificial.Publicación Análisis del impacto de la calidad del modelo en la explicabilidad mediante técnicas XAI en datos clínicos de Identia(2025-09) Gómez García, Juan Manuel; Rincón Zamorano, Mariano; Díaz López, EstelaEste trabajo de fin de máster se enfoca en la interpretación de modelos de clasificación en el contexto de test neuropsicológicos, utilizando diferentes técnicas de explicabilidad. En concreto, se emplean métodos de explicabilidad global como la importancia de características por permutación (PFI), las gráficas de dependencia parcial (PDP), las gráficas de efectos locales acumulados (ALE) y el uso de modelos sustitutos globales. Mientras que los métodos locales aplicados incluyen las curvas de expectativa condicional individual (ICE), LIME, las reglas condicionales locales y SHAP. La metodología empleada incluye la construcción de modelos predictivos utilizando Auto-gluon y la posterior aplicación de las técnicas de XAI para entender el comportamiento de los modelos. Se presentan análisis de cómo las variables influyen en las predicciones de los modelos y se emplea cada método para proporcionar interpretaciones claras y coherentes de los modelos. Se parte de un conjunto de variables normalizadas, sobre el que se establecen criterios de clasificación en ED1, ED2 y ED3 según umbrales definidos en los test de rendimiento. Además, se estudia cómo la calidad de los modelos entrenados influye en la interpretabilidad de las explicaciones generadas, mostrando que modelos con menor rendimiento producen explicaciones menos fiables y, por tanto, de menor utilidad. Los resultados obtenidos muestran que aunque todos los métodos aportan a una mejor comprensión del modelo, cada uno tiene sus ventajas y limitaciones. En particular, los métodos de explicabilidad global aportan una visión completa del modelo, mientras que los métodos locales incluyen un análisis más detallado a nivel de instancia. Finalmente, se concluye que la combinación de diferentes técnicas de explicabilidad es la mejor estrategia para obtener interpreteaciones claras y útiles en el contexto de modelos complejos.Publicación Sistema multimodal de aprendizaje federado para la descripción de imágenes satelitales(2025-09) García Martínez, Alfonso; Moreno Álvarez, SergioLas imágenes en teledetección, tales como las captadas por satélites, contienen un alto grado de informacióm espacial y espectral, y tradicionalmente han sido los expertos en el área los encargados de hacer el etiquetado manual del contenido de las mismas. Es aquí donde entran en juego los modelos visuales de lenguaje, que combinan la visión por computador y el procesamiento de lenguaje natural, y permiten la anotación automática de las imágenes en teledetección, lo cual ha aumentado considerablemente la cantidad de datos disponibles. Existe, no obstante, un problema a la hora de recopilar este tipo de imágenes para entrenar modelos visuales de lenguaje, y es que, a menudo, se tratan de datos privados o sensibles recopilados por entidades gubernamentales, lo que conlleva altos requisitos de seguridad. Por ello, el aprendizaje federado es una modalidad muy adecuada para construir sistemas inteligentes para imágenes en teledetección, pues nos permite entrenar modelos de forma dis- tribuida sin tener que enviar ni compartir los datos entre nodos, asegurando de esta forma su privacidad. En este trabajo, combinaremos ambos paradigmas para desarrollar y entrenar un sistema federado con imágenes satelitales y sus correspondientes anotaciones textuales, que sea capaz de describir automáticamente nuevas imágenes de lugares distintos a los de aquellas con las que ha sido entrenado.Publicación Evaluación automática de modelos de lenguaje mediante validación cruzada con LLMs(2025) García Cantos, José Francisco; Rodríguez Anaya, Antonio; Buendía Ramón, VicenteLas administraciones públicas requieren de sistemas que sean capaces de buscar soluciones y generar respuestas a las dudas de los ciudadanos. Actualmente, nos encontramos en la transición entre sistemas de gestión de base de datos tradicionales a nuevas tecnologías que pueden servir de aceleradores a los procedimientos lentos y burocráticos. La Administración de la Generalitat Valenciana está en fase de pruebas en el desarrollo de diferentes chats conversacionales, junto a la recuperación de información de fuentes externas (RAG), permite obtener respuestas a nuestras preguntas, o en caso contrario, indicar su desconocimiento, a diferencia de los modelos LLM clásicos. En este proyecto se ha trabajado en diferentes soluciones que se necesita conocer si son confiables, por esa razón, se vuelven a generar nuevas respuestas a las mismas preguntas. En el proyecto se hace uso de RAGAS, una librería Python que proporciona la posibilidad de optimizar la evaluación de Modelos LLM, para comparar las respuestas de nuestros modelos a evaluar con las respuestas de referencia y para analizar el uso del contexto en la construcción de las soluciones. Nuestro código ofrece diferentes métricas para comprender la calidad del nuevo chatbot a producir. La creación de las preguntas y respuestas que consideremos como verdad fundamental se pueden realizar mediante diferentes métodos desde su extracción y resolución a través del esfuerzo humano, hasta el uso de modelos del lenguaje que de acuerdo con sus características tenga un alto nivel de confianza para sustituir el trabajo manual. En este trabajo, en sustitución de los recursos humanos y para automatizar procesos, se prepara un pool de preguntas generadas a través de un modelo comercial, en particular, ChatGPT y sus correspondientes respuestas. El proyecto además pretende que un sistema conversacional diferente al que se está utilizando para generar las respuestas, también se pueda apoyar en los mismos desarrollos de evaluación con un coste de migración prácticamente nulo.Publicación Diseño y despliegue de modelos de aprendizaje profundo para la predicción de flujo de tráfico mediante Spark y Docker(2025-09) Frías Lobillo, Juan Manuel; Caminero Herráez, Agustín Carlos; Muñoz Mansilla, María del RocíoEl tráfico urbano se ha convertido en un problema crítico con muchas implicaciones en diferentes áreas. El principal reto a la hora de estudiarlo está en la enorme cantidad de datos que se generan en muy poco tiempo, lo que sitúa su análisis dentro del ámbito del big data. En este trabajo exploramos marcos computacionales escalables y técnicas avanzadas de modelado para el análisis y la predicción automatizada del tráfico. Nos apoyamos en arquitecturas basadas en contenedores que permiten un despliegue flexible, aislamiento de recursos y escalabilidad horizontal en entornos cloud-native, integrando Apache Spark como motor principal para el procesamiento distribuido de datos. Esta combinación resulta especialmente adecuada para manejar flujos de información en tiempo real. Sobre esta infraestructura, implementamos y evaluamos modelos de Deep Learning para predecir el tráfico, tomando Madrid como ejemplo de ciudad occidental moderna.Publicación Reconocimiento de entidades en audios para la configuración de un Sistema de Comunicaciones de Voz de un Centro de Control de Área(2025-09) Andrés Marcos, Juan Carlos; Delgado Muñoz, Agustín DanielEl procesamiento de lenguaje natural (Natural Language Processing, NLP ) cada vez llega a más dominios, ya sean profesionales o domésticos. Dentro del NLP, tareas como el reconocimiento de voz (Automatic Speech Recognition, ASR) y la identificación de entidades nombradas (Named Entity Recognition, NER) constituyen un reto dentro del dominio de las comunicaciones del tráfico aéreo. En este trabajo proponemos ampliar el reto en las comunicaciones del tráfico aéreo, lle- vando el NLP al ámbito de los Sistemas de Comunicaciones de Voz (SCV ). A diferencia de otros trabajos centrados en la comunicación entre pilotos y controladores, este proyecto se enfoca en las tareas técnicas asociadas al sistema de configuración y monitorización técnica (Technical Monitoring and Control System, TMCS ), con el fin de automatizar órdenes verbales mediante su conversión a texto y posterior interpretación a través de la identificación de entidades nombradas. Para ello, se ha construido un corpus específico formado por 1.582 grabaciones, que constituye más de 3 horas de audio de voz realizadas por 11 personas, tanto en silencio como con ligero ruido de fondo. Las grabaciones fueron transcritas manualmente, añadiendo comandos y entidades, lo que permitió la construcción de un conjunto de datos adaptado al dominio de los SCV. La primera fase (ASR) evalúa dos modelos preentrenados: Whisper, basado en encoder-decoder Transformer, y el modelo de Jonatas Grosman basado en Wav2Vec2. Los resultados muestran que Whisper presenta una menor tasa de error de palabra (Word Error Rate, WER), especialmente en condiciones ruidosas. En la segunda fase (NER), se comparan modelos clásicos (CRF, SVM, spaCy) con otros de aprendizaje profundo (BERT, XLNet). El modelo basado en BERT destaca por su precisión, mientras que spaCy sobresale por sus métricas de sensibilidad. El análisis conjunto del pipeline ASR+NER muestra una pérdida de precisión respecto a los datos manuales, aunque los resultados siguen siendo válidos para usos operativos. Este trabajo demuestra que la aplicación de técnicas de procesamiento del lenguaje natural en el ámbito de los técnicos de los SCV es factible y efectiva, especialmente cuando se dispone de un corpus robusto. En este sentido, se plantean diversas líneas de mejora que pasan por ampliar el conjunto de datos o completar el sistema con la interpretación de comandos y entidades para conformar una configuración válida en la base de datos del TMCS.Publicación Aplicación de técnicas de Aprendizaje Automático para la detección temprana de lesiones en jugadores de fútbol(2025-10) Ariza López, Luis; Rodríguez Anaya, AntonioEl campo del aprendizaje automático y Data Science ha experimentado un crecimiento exponencial en la última década, hasta el punto en el que casi todos los ámbitos y disciplinas han encontrado diversas aplicaciones de estas tecnologías con finalidades de todo tipo. El mundo del fútbol no es un caso aparte y en la actualidad, son numerosos los clubes que poseen un departamento de científicos de datos encargados de buscar soluciones a los distintos problemas a los que pueda enfrentarse un equipo, ya sea mediante el análisis de datos o mediante el desarrollo de modelos. No obstante, existe un gran bache entre los datos a los que puede acceder un usuario normal y aquellos a los que accede un profesional del sector, debido principalmente a la privatización a la que está expuesto el sector, provocando que la mayor parte de fuentes de información acerca de los jugadores, especialmente aquellas relacionadas con datos médicos, sean muy exclusivas y de pago. La principal tarea que persigue este trabajo es la creación de un dataset desde cero y que sea totalmente replicable por parte de un tercero mediante técnicas de web scraping para posteriormente y una vez creado el dataset, poder desarrollar técnicas de aprendizaje automático para la detección de lesiones en jugadores de fútbol. En concreto, se utilizan tanto algoritmos de clasificación de lesiones, distinguiendo entre aquellas que se consideran de gravedad y las que no, como algoritmos de regresión para tratar de predecir el número de días que estará de baja un jugador. Para la construcción del dataset se han realizado técnicas de web scraping sobre las web de Transfermarkt y FbRef junto con información de atributos de los jugadores procedentes del videojuego Fifa y disponibles en repositorios en Kaggle. Respecto a la clasificación, tras analizar diversos algoritmos, el algoritmo Naive Bayes es el que mejores resultados presenta, con precisiones de entorno al 59 % y 47 %, dependiendo de la definción de la gravedad de la lesión, mientras que para la regresión no se pudo encontrar ningún modelo que ofreciese un rendimiento aceptable.Publicación Identificación y explicación de patrones de error en modelos predictivos. Aplicación al diagnóstico de declive cognitivo(2025-09) Blanco Córdoba, David; Rincón Zamorano, Mariano; Díaz López, EstelaEn los últimos años, los modelos de inteligencia artificial han alcanzado un alto rendimiento en tareas complejas. Sin embargo, su carácter opaco dificulta la interpretación de sus decisiones. Esta falta de transparencia resulta especialmente crítica en el ámbito clínico, donde las predicciones automáticas deben ir acompañadas de justificaciones comprensibles que apoyen la toma de decisiones médicas. En este contexto, la explicabilidad no sólo permite aumentar la confianza de los profesionales de la salud, sino también detectar sesgos y errores que podrían tener consecuencias graves para los pacientes. Partiendo de esta necesidad, este trabajo aborda el uso de técnicas de explicabilidad en inteligencia artificial (XAI por sus siglas en inglés) con el objetivo de evaluar los errores cometidos por modelos predictivos en el contexto clínico, en concreto, en el diagnóstico de declive cognitivo temprano. Su análisis puede ayudar a identificar en qué casos los modelos no resultan fiables, lo cual es especialmente importante para los expertos en el dominio de la salud. Para ello se ha empleado principalmente el método SHAP (SHapley Additive exPlanations) y se han generado explicaciones de las predicciones erróneas, que han sido agrupadas y posteriormente analizadas para detectar patrones comunes. Los resultados sugieren que los errores se concentran en regiones del espacio de entrada con menor densidad, lo que subraya la necesidad de explorar flujos diagnósticos alternativos que permitan mejorar la fiabilidad en estas instancias atípicas.Publicación Aprendizaje profundo para la segmentación de músculo esquelético y detección de sarcopenia en pacientes oncológicos: Revisión sistemática y meta-análisis(2025-09) Chamizo González, Aitor; Letón Molina, EmilioLa población mundial, en concreto aquella que habita en países desarrollados, está envejeciendo a un ritmo cada vez más acelerado. Asociadas precisamente a este envejecimiento generalizado de la sociedad, aparecen con mayor prevalencia enfermedades como el cáncer o la sarcopenia. La detección temprana de la sarcopenia en pacientes es muy importante para mejorar la salud de una población cada vez más envejecida. Además, dada la sinergia que tiene la sarcopenia con el cáncer (aumenta la toxicidad del mismo), este problema cobra aún más relevancia, sobre todo en poblaciones más envejecidas. En los últimos años, el uso de aprendizaje automático y aprendizaje profundo, en concreto, en contextos asociados a imagen médica, ha visto un aumento en la literatura científica. La sarcopenia es una enfermedad que, en sí misma, es muy difícil de diagnosticar. Es por esto que el tiempo que se tarda en diagnosticarla es alto. Por tanto, el uso de modelos dedicados a la segmentación de masa muscular (redes neuronales convolucionales, por ejemplo) en pacientes sanos versus pacientes enfermos puede ayudar a acelerar el proceso de detección. Este trabajo busca dar mayor visibilidad a esta problemática: mediante el uso de la herramienta del meta-análisis, se navegará a través de la literatura asociada a este problema y se desvelará cuál es el rendimiento general de los modelos de aprendizaje automático, de forma que se pueda avanzar hacia una mayor integración de los mismos en los sistemas de decisión de los sistemas sanitarios públicos. Los resultados obtenidos indican un conjunto de datos bastante heterogéneo, con mucho sesgo de publicación. Sin embargo, el análisis de subgrupos presenta menos heterogeneidad. En general, los resultados obtenidos ofrecen resultados bastante positivos en lo que se refiere a la segmentación de músculo esquelético en estos contextos, lo que puede derivar en que se pueda implementar a medio plazo en los sistemas de decisión sanitarios.Publicación Prototipo de una jabalina sensorizada(2025-06-17) Braic, Andrei; Moreno Salinas, David; Sáenz Valiente, Jacobo; Sánchez Moreno, JoséEl análisis biomecánico en el deporte, y específicamente en el lanzamiento de jabalina, es crucial para la optimización del rendimiento y la prevención de lesiones. Sin embargo, las herramientas tradicionales suelen ser costosas y de difícil acceso para el entrenamiento diario. Este Trabajo de Fin de Máster aborda esta problemática mediante el diseño y desarrollo de un prototipo de jabalina sensorizada de bajo costo. El sistema se fundamenta en la integración de una Unidad de Medida Inercial (IMU), compuesta por un acelerómetro/giroscopio (ICM20649) y un magnetómetro (LIS3MDL), directamente en la jabalina, controlada por un microcontrolador ESP32S3. Los objetivos principales incluyen la selección e integración de componentes electrónicos de bajo costo, la adquisición y sincronización de datos inerciales y magnéticos, y la implementación de algoritmos de fusión de datos, como el filtro Madgwick, para una estimación precisa de la orientación de la jabalina en tiempo real. Una característica distintiva del proyecto es el desarrollo de un servidor web embebido en el ESP32S3, que permite al usuario conectarse mediante un smartphone o cualquier dispositivo con Wi-Fi para visualizar los registros de lanzamientos, descargar los datos en formato CSV y generar informes en PDF con gráficas relevantes de los parámetros biomecánicos. El diseño del hardware abarca desde la creación de una placa de circuito impreso (PCB) optimizada hasta un soporte impreso en 3D para alojar la electrónica dentro de la jabalina. El software, desarrollado en el entorno Arduino, gestiona la lectura de sensores, la fusión de datos, el almacenamiento, la interfaz de usuario, y el servidor web. Este prototipo busca facilitar el acceso al análisis biomecánico en el lanzamiento de jabalina, ofreciendo una herramienta práctica y accesible para que atletas y entrenadores puedan obtener feedback inmediato y optimizar sus sesiones de entrenamiento.Publicación Diseño de un programa de orientación profesional para personas con discapacidad intelectual(2025-07-10) Ortega Marrero, Ángel; Suárez Ortega, MagdalenaEl colectivo de personas con discapacidad se muestra como uno de los colectivos con mayores dificultades de inserción laboral por múltiples causas. La ausencia de competencias sociales y conocimientos sobre aspectos tan actuales como los Objetivos de Desarrollo Sostenible (en adelante, ODS), y aspectos básicos de las nuevas tecnologías de la comunicación e Inteligencia Artificial (en adelante, IA), dificultan la adaptación al mercado laboral actual que está en continua transformación. Por ello, el objetivo principal se basa en la realización de un programa de orientación profesional destinado al colectivo de personas con discapacidad intelectual que se pueda realizar dentro del Servicio Canario de Empleo (en adelante, SCE) para ofrecer habilidades y competencias básicas para la inserción laboral y poder adaptarse a los cambios del mercado laboral. Se establece una metodología participativa, dinámica, que trabaje diferentes cuestiones de una forma integral y con actividades prácticas para mejorar las habilidades sociales y conocer cuestiones actuales del mercado de trabajo, Para ello, se establecen sesiones grupales para promover la adquisición de conocimientos. Con este modelo estratégico, los participantes son los propios protagonistas de su aprendizaje y construyen su propia trayectoria profesional y personal, fomentando el autoconocimiento y la autonomía. De este modo se diseñado una intervención que aporta nuevos elementos al servicio de orientación del SCE, que incluye dinámicas grupales y temas concretos adaptados a la realidad del colectivo y del mercado de trabajo actual, para reducir la vulnerabilidad y la exclusión.Publicación Desarrollo de Gemelos Digitales en Industria(2025-03) Fariñas Gómez, Lander Unai; Robles Gómez, Antonio; Martín Gutiérrez, SergioUna tecnología en auge que cada vez tiene una mayor presencia en la industria es la de los gemelos digitales. El concepto surge hace más de una década, pero aún a día de hoy sigue sin haber un consenso en torno a la definición de un gemelo digital, el uso que se da a los gemelos digitales en diferentes industrias y la forma que toman lo hace imposible. En todos los casos encontramos ciertas características comunes, y estas son las que nos permiten identificarlos y analizarlos a pesar de sus diferencias. Primero, se habla brevemente de la historia de los gemelos digitales y de cómo su concepto surge antes de que las tecnologías necesarias para su desarrollo, como la Inteligencia Artificial o el Internet de las Cosas, pudieran permitirlo. Después, se analiza la importancia y el potencial del desarrollo de gemelos digitales en varias industrias y cómo los avances de las tecnologías previamente mencionadas, que están empezando a alcanzar la madurez, está impulsando el desarrollo de los gemelos digitales. A continuación, se realiza una comparativa entre varias de las plataformas tecnológicas en la nube que dan soporte a este tipo de tecnologías y se analiza su posible integración con los motores de videojuegos Unity y Unreal Engine. Si bien estos últimos no son necesarios para el desarrollo de gemelos digitales, se quiere explorar su potencial como herramientas que permitan visualizar los modelos tridimensionales de los gemelos. Para ello, se explora en detalle el proceso de creación de un gemelo digital en dos de estas plataformas y, por último, se realiza un breve análisis de los motores de videojuegos Unity y Unreal Engine con el objetivo de determinar, cuáles son las ventajas y desventajas de utilizar cada una de estas herramientas al trabajar con gemelos digitales.Publicación Aplicación LoRa para gestión de regadío(2025) González Siverio, Gustavo; Pérez de Madrid y Pablo, Ángel; Mañoso Hierro, María CarolinaEste proyecto, denominado RiegoIoT, ha sido desarrollado para lograr un uso eficiente del agua en un entorno rural, específicamente en una plantación agrícola ubicada a 200 metros de una zona residencial. El objetivo del trabajo es diseñar un sistema que permita gestionar el riego de manera automática y manual, optimizando la cantidad de agua utilizada y facilitando la supervisión remota de las zonas de cultivo. Para ello, se han empleado redes LPWAN y tecnologías del Internet de las Cosas (IoT), priorizando el uso de nodos capaces de comunicarse a largas distancias con un bajo consumo de batería. En el desarrollo del sistema, se han integrado microcontroladores que actúan como nodos encargados de capturar valores ambientales, transmitirlos y recibir instrucciones para activar los actuadores responsables del riego. Para la recopilación de datos, estos nodos cuentan con sensores de temperatura y humedad, lo que permite monitorear las condiciones de las zonas de cultivo en tiempo real. La tecnología de comunicación inalámbrica seleccionada es LPWAN, ya que permite la transmisión de datos a largas distancias con un consumo energético reducido. Dado que el tamaño de los paquetes de datos enviados es pequeño y la frecuencia de transmisión es baja, se prioriza la eficiencia energética como un aspecto clave del proyecto. La aplicación ha sido desarrollada como una plataforma web de uso gratuito y adaptable a distintos dispositivos, como ordenadores y teléfonos inteligentes. Su lógica permite gestionar cultivos rotativos, almacenar los valores ambientales recibidos desde los nodos IoT y obtener datos atmosféricos de la AEMET a través de su API, utilizando únicamente como parámetro la ubicación del municipio donde se encuentra la parcela de cultivo. El funcionamiento del sistema comienza con un nodo IoT ubicado en la zona de cultivo, que recopila datos ambientales y los transmite mediante comunicación LoRa a un nodo intermedio que también posee conexión WiFi, encargado de enviar la información a la aplicación RiegoIoT. Una vez almacenados los valores en la base de datos, el sistema se conecta a la API de la AEMET para obtener pronósticos atmosféricos de la región. A partir de estos datos, la lógica de la aplicación evalúa las condiciones y toma decisiones sobre el riego.