Treballs Finals de Grau (TFG) - Enginyeria Informàtica

URI permanent per a aquesta col·leccióhttps://hdl.handle.net/2445/34465

Treballs Finals del Grau d'Enginyeria Informàtica de la Facultat de Matemàtiques i Informàtica de la Universitat de Barcelona.

Estadístiques

Examinar

Enviaments recents

Mostrant 1 - 20 de 682
  • logoOpenAccessTreball de fi de grau
    Sistema de planificació automàtica d'horaris laborals per al cremallera de Vall de Núria mitjançant tècniques de satisfacció de restriccions
    (2026-01-15) Marquez Cardenas, Xavier; Igual Muñoz, Laura
    [ca] Aquest Treball de Fi de Grau presenta el disseny i desenvolupament d’un sistema web per a la planificació automàtica d’horaris laborals del Cremallera de la Vall de Núria, utilitzant tècniques de satisfacció de restriccions (Constraint Satisfaction Problems, CSP). La generació d’horaris en aquest entorn és una tasca especialment complexa a causa de la combinació de restriccions legals, organitzatives i operatives derivades del conveni laboral vigent, de l’estacionalitat del servei i de la diversitat de rols i tipus de contracte del personal. El sistema modela el problema com un CSP resolt mitjançant el solver CP-SAT de la biblioteca OR-Tools de Google, integrant restriccions dures per garantir el compliment normatiu i restriccions toves orientades a millorar la qualitat dels horaris generats. Paral·lelament, s’ha desenvolupat una aplicació web que permet la gestió de treballadors, torns i horaris, així com la consulta dels torns assignats per part dels empleats. La solució desenvolupada redueix la càrrega manual del procés de planificació, minimitza possibles biaixos subjectius i assegura el compliment estricte de les normes del conveni laboral, oferint una eina adaptada de manera específica a la realitat operativa del Cremallera de la Vall de Núria. [es] Este Trabajo de Fin de Grado presenta el diseño y desarrollo de un sistema web para la planificación automática de horarios laborales del Cremallera de la Vall de Núria, utilizando técnicas de satisfacción de restricciones (Constraint Satisfaction Problems, CSP). La generación de horarios en este entorno es especialmente compleja debido a la combinación de restricciones legales, organizativas y operativas derivadas del convenio laboral vigente, de la estacionalidad del servicio y de la diversidad de roles y tipos de contrato del personal. El sistema modela el problema como un CSP y lo resuelve mediante el solver CP-SAT de la biblioteca OR-Tools de Google, incorporando restricciones duras que garantizan el cumplimiento normativo y restricciones blandas orientadas a mejorar la calidad de los horarios generados. Asimismo, se ha desarrollado una aplicación web que permite la gestión de trabajadores, turnos y horarios, así como la consulta de los turnos asignados por parte de los empleados. La solución desarrollada reduce de forma significativa la carga de trabajo manual asociada a la planificación, minimiza posibles sesgos subjetivos y asegura el cumplimiento estricto del convenio laboral, proporcionando una herramienta diseñada específicamente para la realidad operativa del Cremallera de la Vall de Núria. [en] This Bachelor’s Thesis presents the design and development of a web-based system for the automatic generation of work schedules for the Vall de Núria Rack Railway, using Constraint Satisfaction Problem (CSP) techniques. Workforce scheduling in this context is particularly complex due to the combination of legal, organizational and operational constraints imposed by the current labor agreement, the seasonality of the service, and the diversity of employee roles and contract types. The problem is modeled as a CSP and solved using the CP-SAT solver from Google’s OR-Tools library, incorporating hard constraints to ensure regulatory compliance and soft constraints aimed at improving the quality of the generated schedules. In parallel, a web application has been developed to manage employees, shifts and schedules, and to allow workers to securely consult their assigned shifts. The proposed solution significantly reduces the manual effort required for schedule planning, minimizes potential subjective biases, and ensures strict compliance with labor regulations, providing a system specifically tailored to the operational reality of the Vall de Núria Rack Railway.
  • logoOpenAccessTreball de fi de grau
    Enhancing Computer Vision Models Using Persistent Homology-Based Descriptors
    (2026-01-15) Lyazidi Ahrillou Abraray, Soufiane; Radeva, Petia; Casacuberta, Carles; Nagarajan, Bhalaji
    [en] Deep Neural Networks (DNNs) often fail to capture the underlying hierarchical topological structures present in images, a limitation particularly critical in domains such as medical imaging, where fine anatomical details are essential. Topological Data Analysis (TDA), and specifically its prominent technique, persistent homology, serves as a robust tool to detect and represent these structures by summarizing them into Persistence Diagrams. This final degree project explores the theoretical framework and foundations required to understand persistent homology and its applications to image analysis. It also explores the applications of persistent homology in machine learning, specifically applied to multiclass image classification tasks using Deep Neural Networks (DNNs). An effective way to integrate topological information into DNNs is to encapsulate it into a feature vector. While many existing methods enhance architectures like Transformers or CNNs by generating topological descriptors based on static information, this work focuses on learnable strategies. Leveraging the recent architecture, PHG-Net (Peng et al. [46]) as a foundation, we employ a framework where homological descriptors are not fixed manually but are adaptively selected and optimized by the network during training. In this way, we achieve greater generalization and flexibility by enabling the model to autonomously learn the optimal persistent features, rather than relying on fixed, manually selected descriptors. Consequently, this work aims to validate and extend this methodology by establishing a comprehensive experimental benchmark on ISIC 2018, a complex medical imaging dataset and CIFAR-100, which includes more general objects. Furthermore, we conduct a qualitative analysis to evaluate the robustness and decision-making confidence of topologically enhanced models. This includes examining the specific regions where the model focuses on using Grad-CAMs, and analyzing the geometric organization of learned features through dimensionality reduction techniques such as PCA, t-SNE, and UMAP. [ca] Les Xarxes Neuronals Profundes (DNNs) sovint no aconsegueixen capturar les estructures topològiques jeràrquiques subjacents presents a les imatges, una limitació especialment crítica en imatges mèdiques, on els detalls anatòmics fins són essencials. L’Anàlisi Topològica de Dades (TDA), i específicament la seva tècnica més destacada, l’homologia persistent, serveix com una eina robusta per detectar i representar aquestes estructures resumint-les en Diagrames de Persistència. Aquest Treball de Final de Grau explora el marc teòric i els fonaments necessaris per entendre l’homologia persistent i les seves aplicacions a l’anàlisi d’imatges. També s’exploren les aplicacions de l’homologia persistent en l’aprenentatge automàtic, aplicat específicament a tasques de classificació d’imatges utilitzant Xarxes Neuronals Profundes. Una forma efectiva per integrar la informació topologica a les DNNs és encapsular-la en vectors de característiques. Mentre que molts mètodes existents milloren arquitectures com els Transformadors o les CNN, generant descriptors topològics basats en regles estàtiques, aquest treball es centra en estratègies aprenibles. Utilitzant l’arquitectura PHG-Net (Peng et al. [46]) com a base, emprem un marc on els descriptors homològics no es fixen manualment, sinó que se seleccionen de manera adaptativa i són optimitzats per la xarxa durant l’entrenament. D’aquesta manera, aconseguim una major generalització i flexibilitat permetent que el model aprengui de manera autònoma les característiques persistents òptimes, en lloc de dependre de descriptors fixos seleccionats manualment. Consegüentment, aquest treball té com a objectiu validar i estendre aquesta metodologia establint un punt de referència experimental exhaustiu amb l’ISIC 2018, un conjunt de dades complex d’imatges mèdiques, i el CIFAR-100, que inclou objectes més generals. A més, realitzem una anàlisi qualitativa per avaluar la robustesa i la confiança en la presa de decisions dels models millorats topològicament. Això inclou examinar les regions específiques on el model focalitza la seva atenció utilitzant Grad-CAMs, i analitzar l’organització geomètrica de les característiques apreses mitjançant tècniques de reducció de dimensionalitat com PCA, t-SNE i UMAP.
  • logoOpenAccessTreball de fi de grau
    Creació d'un repositori de components vue de suport a l'assisgnatura Factors humans i computació
    (2026-01-15) Vallès Fusta, Gemma; Ribera, Mireia
    [ca] L'accessibilitat web és un requisit fonamental en el desenvolupament de programari modern, però la seva implementació continua sent un repte tècnic per als estudiants d'enginyeria informàtica. Aquest Treball Final de Grau presenta AccessiVue, una llibreria de components web reutilitzables i accessibles, dissenyada per a poder ser un material de suport en l'assignatura de Factors Humans i Computació. L'objectiu principal del projecte ha estat reduir la barrera d'entrada tècnica en la creació d'interfícies inclusives. Per aconseguir-ho, s'ha seguit la metodologia de Design Thinking, estructurant el desenvolupament en un procés iteratiu de cinc fases. S'ha començat per l'etapa d'Empatitzar, realitzant una recerca qualitativa amb usuaris per comprendre les frustracions reals de l'alumnat. Aquesta informació ha permès Definir el problema mitjançant la creació d'arquetips (Personas) i l'especificació de requisits. Posteriorment, s'ha passat a Idear l'arquitectura de la solució i els fluxos d'interacció, per després Prototipar la interfície en alta fidelitat abans d'iniciar la programació. Finalment, el cicle s'ha tancat amb la fase d'Avaluar, validant la usabilitat i l'accessibilitat de la llibreria resultant mitjançant tests amb usuaris finals i proves tècniques. Com a resultat, s'ha implementat un catàleg de 5 components (Formulari, Cercador, CRUD, Biblioteca i Drag&Drop) utilitzant Vue.js i una arquitectura sense dependències d'entorn basada en fitxers HTML únics, facilitant la seva integració directa sense configuracions complexes. Tots els components compleixen amb les directrius WCAG 2.2, garantint la navegació per teclat i la compatibilitat amb productes de suport. Aquests components es presenten en un repositori que compta amb una navegació intuïtiva i una fitxa d’informació per a cada component, en el que, a més, s’expliquen els conceptes bàsics de Vue necessaris per tal de poder integrar els components, juntament amb la informació general i especifica dels components, una demostració en viu, el codi font i exemples. [es] La accesibilidad web es un requisito fundamental en el desarrollo de software moderno, pero su implementación sigue siendo un reto técnico para los estudiantes de ingeniería informática. Este Trabajo de Fin de Grado presenta AccessiVue, una librería de componentes web reutilizables y accesibles, diseñada para servir como material de apoyo en la asignatura de Factores Humanos y Computación. El objetivo principal del proyecto ha sido reducir la barrera de entrada técnica en la creación de interfaces inclusivas. Para lograrlo, se ha seguido la metodología de Design Thinking, estructurando el desarrollo en un proceso iterativo de cinco fases. Se ha empezado por la etapa de Empatizar, realizando una investigación cualitativa con usuarios para comprender las frustraciones reales del alumnado. Esta información permitió Definir el problema mediante la creación de arquetipos (Personas) y la especificación de requisitos. Posteriormente, se procedió a Idear la arquitectura de la solución y los flujos de interacción, para después Prototipar la interfaz en alta fidelidad antes de iniciar la programación. Finalmente, el ciclo se cerró con la fase de Evaluar, validando la usabilidad y la accesibilidad de la librería resultante mediante tests con usuarios finales y pruebas técnicas. Como resultado, se ha implementado un catálogo de 5 componentes (Formulario, Buscador, CRUD, Biblioteca y Drag&Drop) utilizando Vue.js y una arquitectura sin dependencias de entorno basada en archivos HTML únicos, facilitando su integración directa sin configuraciones complejas. Todos los componentes cumplen con las directrices WCAG 2.2, garantizando la navegación por teclado y la compatibilidad con productos de apoyo. Estos componentes se presentan en un repositorio que cuenta con una navegación intuitiva y una ficha informativa para cada componente. Además, en él se explican los conceptos básicos de Vue necesarios para poder integrar los componentes, junto con la información general y específica de cada uno, una demostración en vivo, el código fuente y ejemplos. [en] Web accessibility is a fundamental requirement in modern software development, yet its implementation remains a technical challenge for computer engineering students. This Bachelor's Thesis presents AccessiVue, a library of reusable and accessible web components designed to serve as support material for the Human Factors and Computing course. The main objective of the project was to reduce the technical entry barrier to creating inclusive interfaces. To achieve this, the Design Thinking methodology was followed, structuring the development into a five-phase iterative process. The process began with the Empathize stage, conducting qualitative research with users to understand the students' real frustrations. This information allowed for Defining the problem by creating archetypes (Personas) and specifying requirements. Subsequently, the solution architecture and interaction flows were Ideated, followed by Prototyping the interface in high fidelity before starting the programming phase. Finally, the cycle concluded with the Evaluate phase, validating the usability and accessibility of the resulting library through tests with end-users and technical trials. As a result, a catalog of 5 components (Form, Search, CRUD, Library, and Drag&Drop) was implemented using Vue.js and an environment-agnostic architecture based on single HTML files, facilitating direct integration without complex configurations. All components comply with WCAG 2.2 guidelines, ensuring keyboard navigation and compatibility with assistive technologies. These components are presented in a repository featuring intuitive navigation and an information sheet for each component. Additionally, the repository explains the basic Vue concepts necessary to integrate the components, along with general and specific information, a live demo, source code, and examples.
  • logoOpenAccessTreball de fi de grau
    Optimització Geomètrica de Xarxes Neuronals en Espais Hiperbòlics a través de Sharpness-Aware Minimization
    (2026-01-15) Valderrama Veciana, María; Statuto, Nahuel; Clapés Sintes, Albert
    [en] This Final Degree Project for the Double Degree in Mathematics and Computer Engineering addresses the geometric optimization of Deep Learning by adapting neural network architectures to hyperbolic space. More specifically, it utilizes the mathematical hyperboloid model Hn; also known in this field as the Lorentz model. Motivated by the limitations of Euclidean geometry in representing hierarchical data structures with minimal distortion, the work first establishes a rigorous mathematical foundation of the space, deriving essential operational tools such as parallel transport, exponential maps, and the analytical characterization of hyperbolic hyperplanes required for the automated image classification task. From an engineering perspective, a fully hyperbolic neural network architecture is adopted as a baseline, incorporating the Riemannian Sharpness-Aware Minimization (RSAM) algorithm to improve convergence and generalization on the manifold. Experimental validation on the CIFAR-100 and Caltech-256 datasets reveals that, while data augmentation allows Euclidean models to mitigate dimensional collapse, hyperbolic architectures optimized with RSAM demonstrate superior intrinsic stability. Specifically, stress tests confirm that these models learn representations that are significantly more resilient to perturbations and invariant to rotations compared to their flat counterparts. [ca] Aquest Treball Final del Doble Grau en Matemàtiques i Enginyeria Informàtica aborda l’optimització geomètrica de l’aprenentatge profund adaptant les arquitectures de les xarxes neuronals a l’espai hiperbòlic. Més concretament, s’utilitza el model matemàtic de l’hiperboloide Hn; també conegut en aquest àmbit com a model de Lorentz. Motivat per les limitacions de la geometria Euclidiana per representar dades jeràrquiques amb la mínima distorsió, el treball estableix primerament una fonamentació matemàtica rigorosa de l’espai, deduint eines operatives essencials com el transport paral·lel, els mapes exponencials i la caracterització analítica dels hiperplans hiperbòlics necessaris per a la tasca de classificació automàtica d’imatges. Des d’una perspectiva d’enginyeria, s’adopta una arquitectura de xarxa neuronal completament hiperbòlica com a base i s’hi incorpora l’algorisme Riemannian Sharpness-Aware Minimization (RSAM) per millorar la convergència i la generalització sobre la varietat. La validació experimental sobre els conjunts de dades CIFAR-100 i Caltech-256 revela que, tot i que l’augment de dades permet als models euclidians mitigar el col·lapse dimensional, les arquitectures hiperbòliques optimitzades amb RSAM demostren una estabilitat intrínseca superior. Concretament, els tests d’estrès confirmen que aquests models aprenen representacions significativament més resilients a pertorbacions i invariants a rotacions en comparació amb els seus homòlegs plans. [es] Este Trabajo Final del Doble Grado en Matemáticas e Ingeniería Informática aborda la optimización geométrica del aprendizaje profundo adaptando las arquitecturas de las redes neuronales al espacio hiperbólico. Más concretamente, se utiliza el modelo matemático del hiperboloide Hn; también conocido en este ámbito como modelo de Lorentz. Motivado por las limitaciones de la geometría Euclidiana para representar datos jerárquicos con la mínima distorsión, el trabajo establece primeramente una fundamentación matemática rigurosa del espacio, deduciendo herramientas operativas esenciales como el transporte paralelo, los mapas exponenciales y la caracterización analítica de los hiperplanos hiperbólicos necesarios para la tarea de clasificación automática de imágenes. Desde una perspectiva de ingeniería, se adopta una arquitectura de red neuronal completamente hiperbólica como base y se incorpora el algoritmo Riemannian Sharpness-Aware Minimization (RSAM) para mejorar la convergencia y la generalización sobre la variedad. La validación experimental sobre los conjuntos de datos CIFAR-100 y Caltech-256 revela que, aunque el aumento de datos permite a los modelos euclidianos mitigar el colapso dimensional, las arquitecturas hiperbólicas optimizadas con RSAM demuestran una estabilidad intrínseca superior. Concretamente, los tests de estrés confirman que estos modelos aprenden representaciones significativamente más resilientes a perturbaciones e invariantes a rotaciones en comparación con sus homólogos planos.
  • logoOpenAccessTreball de fi de grau
    Challenging Forgets in Tabular Neural Networks: A Comparative Analysis of Noise-Based Unlearning Methods and Forget Set Structure
    (2026-01-18) Mittal, Eshaan; Statuto, Nahuel
    [en] As a machine learning models is trained, it encodes information from the training data into learned parameters, creating challenges when individuals exercise their right to data deletion under frameworks such as the General Data Protection Regulation. Complete model retraining without the targeted samples represents the theoretically optimal solution, yet this approach imposes prohibitive computational costs for production systems handling frequent deletion requests. Machine unlearning has emerged as an alternative paradigm that modifies model parameters to remove the influence of specific training samples without requiring full retraining. This thesis investigates noise-based machine unlearning strategies applied to TabNet, an attention-based neural network architecture for tabular data processing. The central research question examines how the structural composition of forget sets, particularly class distribution, determines unlearning effectiveness. Five strategies are evaluated: Gaussian noise injection, Laplacian noise injection, adaptive gradient-weighted noise, layer-wise progressive noise, and gradient-based unlearning through gradient ascent. Experiments employ the Adult Income dataset with four forget request scenarios designed to systematically vary class balance. The Married scenario removes individuals with married civil spouse status, yielding 44.6% positive class composition. The Executives scenario targets managerial occupations with 48.4% positive class. The HighEarnProf scenario employs geometric selection of high-earning professionals, producing 100% positive class composition (complete single-class imbalance). The RandomBalanced scenario creates a stratified random sample with exactly 50% from each class (perfect balance). This design enables rigorous analysis of the relationship between class composition and unlearning outcomes. Results establish that class balance within the forget set constitutes the primary determinant of unlearning success. Balanced scenarios achieve forget accuracy in the 0.59-0.67 range. The HighEarnProf scenario with complete class imbalance initially appears to exhibit anti-learning, with forget accuracy falling to approximately 0.14-0.23. However, comparison with gold standard models (retrained from scratch without the forget data) reveals that this low accuracy represents successful unlearning rather than failure: the gold standard achieves similarly low accuracy (0.16) on these samples, indicating they are edge cases that were memorized during training. Unlearning successfully removes this memorization, causing the model to generalize naturally. Laplacian noise injection demonstrates the strongest performance on balanced scenarios, while all strategies perform equivalently on imbalanced cases. Computational efficiency represents a practical advantage, with noise-based methods completing in 3.5-17 seconds compared to 28-67 seconds for full retraining, representing speedup factors of 1.8-10.6 times for the Adult Income dataset. For larger models and datasets, this efficiency gap would be substantially greater. These findings establish that practitioners must analyze forget set class distribution prior to applying noise-based unlearning, as structural properties fundamentally constrain achievable outcomes regardless of strategy selection. The aim of this thesis is to provide a better understanding of structure-dependent unlearning limitations and practical insights for GDPR-compliant machine learning deployments. [es] Mientras un modelo de aprendizaje automático se entrena, codifica información de los datos de entrenamiento en parámetros aprendidos, creando desafíos cuando los individuos ejercen su derecho a la eliminación de datos bajo marcos normativos como el Reglamento General de Protección de Datos. El reentrenamiento completo del modelo sin las muestras objetivo representa la solución teóricamente óptima, sin embargo, este enfoque impone costos computacionales prohibitivos para sistemas de producción que manejan solicitudes frecuentes de eliminación. El machine unlearning ha surgido como un paradigma alternativo que modifica los parámetros del modelo para eliminar la influencia de muestras de entrenamiento específicas sin requerir reentrenamiento completo. Esta tesis investiga estrategias de machine unlearning basadas en ruido aplicadas a TabNet, una arquitectura de red neuronal basada en atención para el procesamiento de datos tabulares. La pregunta central de investigación examina cómo la composición estructural de los conjuntos de olvido, particularmente la distribución de clases, determina la efectividad del desaprendizaje. Se evalúan cinco estrategias: inyección de ruido Gaussiano, inyección de ruido Laplaciano, ruido adaptativo ponderado por gradiente, ruido progresivo por capas y desaprendizaje basado en gradientes mediante ascenso de gradiente. Los experimentos emplean el conjunto de datos Adult Income con cuatro escenarios de solicitud de olvido diseñados para variar sistemáticamente el balance de clases. El escenario Married elimina individuos con estado civil de casado, produciendo 44.6% de composición de clase positiva. El escenario Executives se dirige a ocupaciones gerenciales con 48.4% de clase positiva. El escenario HighEarnProf emplea selección geomètrica de profesionales de altos ingresos, produciendo 100% de composición de clase positiva (desequilibrio completo de clase única). El escenario RandomBalanced crea una muestra aleatoria estratificada con exactamente 50% de cada clase (balance perfecto). Este diseño permite un análisis riguroso de la relación entre composición de clases y resultados del desaprendizaje. Los resultados establecen que el balance de clases dentro del conjunto de olvido constituye el determinante principal del éxito del desaprendizaje. Los escenarios balanceados alcanzan precisión de olvido en el rango de 0.59-0.67. El escenario HighEarnProf con desequilibrio completo de clases inicialmente parece exhibir anti-aprendizaje, con precisión de olvido cayendo a aproximadamente 0.14-0.23. Sin embargo, la comparación con modelos gold standard (reentrenados desde cero sin los datos de olvido) revela que esta baja precisión representa desaprendizaje exitoso en lugar de fracaso: el gold standard alcanza precisión similarmente baja (0.16) en estas muestras, indicando que son casos atípicos que fueron memorizados durante el entrenamiento. El desaprendizaje elimina exitosamente esta memorización, causando que el modelo generalice naturalmente. La inyección de ruido Laplaciano demuestra el rendimiento más fuerte en escenarios balanceados, mientras que todas las estrategias funcionan equivalentemente en casos desequilibrados. La eficiencia computacional representa una ventaja práctica, con métodos basados en ruido completando en 3.5-17 segundos comparado con 28-67 segundos para reentrenamiento completo, representando factores de aceleración de 1.8-10.6 veces para el conjunto de datos Adult Income. Para modelos y conjuntos de datos más grandes, esta brecha de eficiencia sería sustancialmente mayor. Estos hallazgos establecen que los profesionales deben analizar la distribución de clases del conjunto de olvido antes de aplicar desaprendizaje basado en ruido, ya que las propiedades estructurales restringen fundamentalmente los resultados alcanzables independientemente de la selección de estrategia. La tesis contribuye tanto comprensión teórica de las limitaciones del desaprendizaje dependientes de la estructura como conocimientos prácticos para implementaciones de aprendizaje automático conformes con el RGPD. [ca] Quan un model d’aprenentatge automàtic s’entrena, codifica informació de les dades d’entrenament en paràmetres apresos, creant reptes quan els individus exerceixen el seu dret a l’eliminació de dades sota marcs normatius com el Reglament General de Protecció de Dades. El reentrenament complet del model sense les mostres objectiu representa la solució teòricament òptima, però aquest enfocament imposa costos computacionals prohibitius per a sistemes de producció que gestionen sol·licituds freqüents d’eliminació. El machine unlearning ha sorgit com un paradigma alternatiu que modifica els paràmetres del model per eliminar la influència de mostres d’entrenament específiques sense requerir reentrenament complet. Aquesta tesi investiga estratègies de machine unlearning basades en soroll aplicades a TabNet, una arquitectura de xarxa neuronal basada en atenció per al processament de dades tabulars. La pregunta central de recerca examina com la composició estructural dels conjunts d’oblit, particularment la distribució de classes, determina l’efectivitat del desaprenentatge. S’avaluen cinc estratègies: injecció de soroll Gaussià, injecció de soroll Laplacià, soroll adaptatiu ponderat per gradient, soroll progressiu per capes i des aprenentatge basat en gradients mitjançant ascens de gradient. Els experiments empren el conjunt de dades Adult Income amb quatre escenaris de sol·licitud d’oblit dissenyats per variar sistemàticament el balanç de classes. L’escenari Married elimina individus amb estat civil de casat, produint 44.6% de composició de classe positiva. L’escenari Executives es dirigeix a ocupacions gerencials amb 48.4% de classe positiva. L’escenari HighEarnProf empra selecció geomètrica de professionals d’alts ingressos, produint 100% de composició de classe positiva (desequilibri complet de classe única). L’escenari RandomBalanced crea una mostra aleatòria estratificada amb exactament 50% de cada classe (balanç perfecte). Aquest disseny permet una anàlisi rigorosa de la relació entre composició de classes i resultats del desaprenentatge. Els resultats estableixen que el balanç de classes dins del conjunt d’oblit constitueix el determinant principal de l’èxit del desaprenentatge. Els escenaris balançats assoleixen precisió d’oblit en el rang de 0.59-0.67. L’escenari HighEarnProf amb desequilibri complet de classes inicialment sembla exhibir anti-aprenentatge, amb precisió d’oblit caient a aproximadament 0.14-0.23. No obstant això, la comparació amb models gold Standard (reentrenats des de zero sense les dades d’oblit) revela que aquesta baixa precisió representa desaprenentatge exitós en lloc de fracas: el gold standard assoleix precisió similarment baixa (0.16) en aquestes mostres, indicant que són casos atípics que van ser memoritzats durant l’entrenament. El desaprenentatge elimina exitosament aquesta memorització, causant que el model generalitzi naturalment. La injecció de soroll Laplacià demostra el rendiment més fort en escenaris balançats, mentre que totes les estratègies funcionen equivalentment en casos desequilibrats. L’eficiència computacional representa un avantatge pràctic, amb mètodes basats en soroll completant en 3.5-17 segons comparat amb 28-67 segons per a reentrenament complet, representant factors d’acceleració de 1.8-10.6 vegades per al conjunt de dades Adult Income. Per a models i conjunts de dades més grans, aquesta bretxa d’eficiència seria substancialment més gran. Aquests resultats estableixen que els professionals han d’analitzar la distribució de classes del conjunt d’oblit abans d’aplicar desaprenentatge basat en soroll, ja que les propietats estructurals restringeixen fonamentalment els resultats assolibles independentment de la selecció d’estratègia. La tesi contribueix tant comprensió teòrica de les limitacions del desaprenentatge dependents de l’estructura com coneixements pràctics per a implementacions d’aprenentatge automàtic conformes amb el RGPD.
  • logoOpenAccessTreball de fi de grau
    Desenvolupament d’una aplicació android per a facilitar la gestió i resolució d’entrevistes tècniques
    (2026-01-15) Ranz Lorente, Ignasi; Igual Muñoz, Laura
    [ca] En el context actual del mercat laboral tecnològic, els processos de selecció de personal poden arribar a fer-se llargs i poc eficients, fet que provoca que, en molts casos, el temps i l’esforç invertits per les persones candidates no tinguin un retorn proporcional. Davant d’aquesta realitat, aquest Treball de Fi de Grau planteja el desenvolupament d’una aplicació destinada a ajudar a millorar i agilitzar els processos de selecció en entorns tecnològics, amb l’objectiu de fer-los més accessibles, eficients i transparents. L’aplicació incorpora, com a element diferencial, la possibilitat de dur a terme entrevistes tècniques integrades a la plataforma, permetent una avaluació més objectiva de les competències tècniques dels usuaris candidats. Un altre punt característic del projecte és que, independentment de si el candidat és seleccionat o no per a la posició actual, el sistema conserva un registre estructurat del seu rendiment que podrà consultar i utilitzar per noves posicions en el futur. L’altre punt és la facilitat i versatilitat que dona als usuaris per a resoldre una entrevista tècnica des de qualsevol lloc amb el seu dispositiu mòbil sense dependre d’estar davant d’un ordinador en el moment de realitzar l’entrevista. A l’hora de dissenyar l’aplicació, s’ha aplicat la metodologia Design Thinking. S’ha analitzat l’entorn de l’aplicació mitjançant la realització d’informes de mercat i Benchmarking. Pel desenvolupament del projecte, s’han utilitzat les tecnologies més avançades i utilitzades actualment en en desenvolupament d’aplicacions Android com són Jetpack Compose i Material Design 3. Per la gestió de la base de dades s’ha utilitzat Firebase Authentication i Cloud Firestore. I pel backend s’ha utilitzat render creant un servidor amb Flask per a compilar i executar el codi generat per l’usuari. [es] En el contexto actual del mercado laboral tecnológico, los procesos de selección de personal pueden llegar a ser largos y poco eficientes, lo que provoca que, en muchos casos, el tiempo y el esfuerzo invertidos por las personas candidatas no tengan un retorno proporcional. Ante esta situación, este Trabajo de Fin de Grado plantea el desarrollo de una aplicación orientada a mejorar y agilizar los procesos de selección en entornos tecnológicos, con el objetivo de hacerlos más accesibles, eficientes y transparentes. La aplicación incorpora como elemento diferencial la posibilidad de realizar entrevistas técnicas integradas en la plataforma, permitiendo una evaluación más objetiva de las competencias técnicas de los candidatos. Asimismo, el sistema conserva un registro estructurado del rendimiento de cada usuario, independientemente de si ha sido seleccionado o no para una posición concreta, el cual puede ser consultado y consultado para futuros procesos de selección. Finalmente, la aplicación destaca por la facilidad y versatilidad que ofrece para completar entrevistas técnicas desde cualquier lugar mediante un dispositivo móvil. Para diseñar la aplicación, se ha aplicado la metodología Design Thinking. Se ha analizado el entorno de la aplicación mediante la realización de informes de mercado y Benchmarking. Para el desarrollo del proyecto, se han utilizado las tecnologías más avanzadas y actuales en el desarrollo de aplicaciones Android, como Jetpack Compose y Material Design 3. Para la gestión de la base de datos se ha utilizado Firebase Authentication y Cloud Firestore. Y para el backend se ha utilizado Render, creando un servidor con Flask para compilar y ejecutar el código generado por el usuario. [en] In the current technological job market, recruitment processes can become lengthy and inefficient, often resulting in a disproportionate investment of time and effort by candidates with limited outcomes. In response to this situation, this Final Degree Project proposes the development of an application aimed at improving and streamlining recruitment processes in technological environments, with the goal of making them more accessible, efficient, and transparent. As a distinctive feature, the application integrates technical interviews directly into the platform, enabling a more objective assessment of candidates’ technical skills. Additionally, the system maintains a structured record of each user’s performance regardless of whether they are selected for a specific position, allowing this information to be consulted and reused in future recruitment processes. Finally, the application provides users with the flexibility and convenience to complete technical interviews from any location using their mobile device. While designing the application, the Design Thinking methodology was applied. The application’s environment was analyzed through market research and benchmarking reports. For the development of the project, the most advanced and widely used technologies in Android application development were used, such as Jetpack Compose and Material Design 3. Firebase Authentication and Cloud Firestore were used for database management. For the backend, Render was used, creating a server with Flask to compile and execute the code generated by the user.
  • logoOpenAccessTreball de fi de grau
    De la radiòmica als Foundation Models: estratègies per a l’extracció de característiques d’imatge mèdica
    (2026-01-15) Figueras Puiggròs, Andreu; Díaz, Oliver
    [en] Breast cancer remains a leading cause of mortality among women worldwide. Neoadjuvant Chemotherapy (NAC) is a standard treatment for advanced stages, and achieving Pathological Complete Response (pCR) is a strong predictor of survival. Non-invasive prediction of pCR using Magnetic Resonance Imaging (MRI) is a major goal in precision medicine. This thesis compares two features extraction methods for pCR prediction: classical Radiomics, which is interpretable with hand-crafted features, and modern Foundation Models which are abstract with deep learning embeddings. Beyond standard classification metrics, we propose a rigorous mathematical framework to analyze the intrinsic properties of these feature spaces. We utilize Probabilistic Principal Component Analysis (PPCA) to estimate the intrinsic dimensionality and k-Nearest Neighbors (k-NN) based mutual information estimator (KSG and Ross algorithms) to quantify feature relevance without assuming linearity. Furthermore, we implement a Minimum Redundancy Maximum Relevance (mRMR) algorithm to identify optimal feature subset and employ t-SNE to visualize the structural differences between radiomics features and Foundation Models embeddings. Our results on the MAMA-MIA dataset reveal that both feature spaces exhibit high redundancy and saturation, as Probabilistic PCA successfully reduced dimensionality by over 90% without significant information loss. regarding predictive performance, classical Radiomics outperformed the MRI-CORE Foundation Model, achieving AUC scores between 0.60 and 0.65 compared to the 0.50–0.55 range obtained with deep learning embeddings. Furthermore, while the proposed mutual information-based feature selection method stabilized model training, it did not significantly improve classification performance compared to standard reduction strategies. These findings suggest that, despite the semantic richness of Foundation Models, hand-crafted radiomic features remain more effective for this specific binary classification task without fine-tuning. [ca] El càncer de mama continua sent una de les principals causes de mortalitat femenina a nivell mundial. La Quimioteràpia Neoadjuvant (NAC) és un tractament estàndard, i assolir la Resposta Patològica Completa (pCR) és un fort indicador de supervivència. La predicció no invasiva de la pCR mitjançant Ressonància Magnètica (MRI) és un objectiu clau en la medicina de precisió. Aquest treball compara dos mètodes d’extracció de característiques per a al predicció de pCR: la Radiòmica clàssica amb descriptors interpretables i els Foundation Models amb embeddings d’aprenentatge profund. Més enllà de les mètriques de classificació estàndard, proposem un marc matemàtic rigorós per analitzar les propietats intrínseques d’aquests espais vectorials. Utilitzem l’Anàlisi de Components Principals Probabilístic (PPCA) per estimar la dimensionalitat intrínseca i estimadors d’informació mútua basats en k-Veïns Més Propers (k-NN) (algoritmes KSG i Ross) per quantificar la rellevància sense assumir linealitat. A més, implementem un algoritme de selecció mRMR (Mínima Redundància Màxima Rellevància) per identificar subconjunts òptims. Els nostres resultats sobre el conjunt de dades MAMA-MIA revelen que ambdós espais de característiques presenten una alta redundància i saturació, permetent que el PCA Probabilístic redueixi la dimensionalitat en més d’un 90% sense pèrdua significativa d’informació. Pel que fa a la capacitat predictiva, la Radiòmica clàssica ha superat el Foundation Model MRI-CORE, assolint valors AUC entre 0,60 i 0,65 en comparació amb el rang de 0,50–0,55 obtingut amb els embeddings. A més, tot i que la metodologia de selecció proposada basada en informació mútua ha estabilitzat l’entrenament dels models, no ha millorat significativament els resultats respecte a les estratègies de reducció estàndard. Aquestes conclusions suggereixen que, malgrat la potència dels Foundation Models, els descriptors radiòmics continuen sent més efectius per a aquesta tasca específica de classificació binària sense aplicar fine-tuning.
  • logoOpenAccessTreball de fi de grau
    Estratègies d'optimització de visualització de point clouds
    (2026-01-14) González Porras, Víctor; Puig Puig, Anna
    [en] This thesis focuses on optimization methods for the visualization of 3D point clouds in real time. These clouds have a lot of points, usually in the order of millions, this makes it so their visualization becomes computationally very costly and hard to do in real time, and so optimization techniques have to be introduced. In this context, this thesis focuses on two methods: the use of compute shaders and the use of the Lebesgue curve for the ordering of the points of the point cloud. In the first part, the thesis formalizes and studies concepts such as the concept of a point cloud or the Lebesgue curve. It also explores other methods, like the use of traditional graphic pipeline or the elimination of Z-Test, and other orders, like random ordering of the points or shuffling the points of the Lebesgue curve. The second part of this thesis consists on the design and implementation of a program that incorporates all the methods studied and is also able to visualize these point clouds in real time. It also includes a comparison of all the implemented methods and orders, with the objective of finding the best combination of rendering method and ordering of the points depending on the situation. [ca] Aquest Treball de Final de Grau tracta mètodes d’optimització per a visualitzar nivells de punts (point clouds) en 3D en temps real. Aquests nivells acostumen a tenir una quantitat molt gran de punts, de l’ordre de milions, per tant la seva visualització pot esdevenir computacionalment costosa i difícil de fer en temps real, fet que fa necessari introduir tècniques d’optimització. En aquest context, el projecte es centra en dos mètodes: l’ús de compute shaders i l’ús de la corba de Lebesgue per ordenar els punts del núvol. En la primera part del projecte es formalitzen i s’aprofundeix en conceptes com el del núvol de punts i la corba de Lebesgue. També s’exploren altres mètodes, com l’ús de la pipeline gràfica tradicional o l’eliminació del Z-Test, i altres ordres, com ordenar els punts aleatòriament o barrejant els punts de la corba de Lebesgue. La segona part del TF G consisteix en el disseny i implementació d’un programa que incorpora tots els mètodes estudiats, de tal manera que sigui capaç de visualitzar aquests núvols de punts en temps real. També inclou una comparativa entre tots els mètodes i ordres implementats, amb l’objectiu de trobar quina és la combinació òptima de mètode de renderitzat i ordre dels punts depenent del cas. [es] Este Trabajo de Fin de Grado trata métodos de optimización para visualizar nubes de puntos (point clouds) en 3D en tiempo real. Estas nubes acostumbran a tener una cantidad muy grande de puntos, del orden de millones, por tanto su visualización puede volverse computacionalmente costosa y difícil de hacer en tiempo real, hecho que hace necesario introducir técnicas de optimización. En este contexto, el proyecto se centra en dos métodos: el uso de compute shaders y el uso de la curva de Lebesgue para ordenar los puntos del conjunto de puntos. En la primera parte del proyecto se formalizan y se profundiza en conceptos como los de la nube de puntos y la curva de Lebesgue. También se exploran otros métodos, como el uso de la pipeline gráfica tradicional o la eliminación del Z-Test, y otros órdenes, como ordenar los puntos aleatoriamente o mezclando los puntos de la curva de Lebesgue. La segunda parte del TFG consiste en el diseño e implementación de un programa que incorpora todos los métodos estudiados, de tal manera que sea capaz de visualizar estas nubes de puntos en tiempo real. También incluye una comparativa entre todos los métodos y órdenes implementados, con el objetivo de encontrar cuál es la combinación óptima entre método de renderizado y orden de los puntos dependiendo del caso.
  • logoOpenAccessTreball de fi de grau
    File and image compression
    (2026-01-01) Lagunas Rebollar, Quim; Canals Gil, Joan
    [en] Data compression plays a fundamental role in modern computing systems, enabling efficient storage and transmission of digital information. Given the wide variety of available compression codecs and configurations, objective and reproducible performance evaluation is essential to understand their behavior across different types of data. This project presents the design and implementation of a benchmarking framework for the evaluation of lossless and lossy compression techniques, with a particular focus on general-purpose file compression and digital image compression. Representative datasets were selected to cover heterogeneous data types, including mixed file collections and image datasets. Relevant performance metrics, such as compression ratio and throughput, were defined to enable consistent comparison across codecs and compression levels. The proposed methodology was applied to a set of widely used compression codecs, and extensive experimental evaluations were conducted. For file compression, the analysis highlights how codec performance varies significantly depending on the nature of the data. For image compression, both lossless and lossy configurations were evaluated, revealing trade-offs between compression efficiency and processing performance. The results are analyzed and visualized to identify trends, strengths, and limitations of the evaluated codecs under comparable conditions. The findings provide practical insights into the suitability of different compression approaches depending on the data characteristics and application requirements. This work contributes a systematic and extensible benchmarking approach that can be used as a basis for future comparative studies in data compression. [es] La compresión de datos juega un papel fundamental en los sistemas informáticos modernos, permitiendo el almacenamiento y transmisión eficientes de la información digital. Dada la gran variedad de códecs y configuraciones de compresión disponibles, la evaluación objetiva y reproducible del rendimiento es esencial para entender su comportamiento en distintos tipos de datos. Este proyecto presenta el diseño y la implementación de un marco de referencia para la evaluación de técnicas de compresión sin pérdidas y pérdidas, con un enfoque particular en la compresión de archivos de uso general y la compresión de imágenes digitales. Se seleccionan conjuntos de datos representativos para cubrir tipos de datos heterogéneos, incluyendo colecciones de archivos mixtos y conjuntos de datos de imágenes. Se definen métricas de rendimiento relevantes, como la relación de compresión y el rendimiento, para permitir una comparación coherente entre códecs y niveles de compresión. La metodología propuesta se ha aplicado a un conjunto de códecs de compresión ampliamente utilizados y se han llevado a cabo amplias evaluaciones experimentales. Para la compresión de archivos, el análisis destaca cómo el rendimiento del códec varía significativamente según la naturaleza de los datos. Para la compresión de imágenes, se han evaluado las configuraciones sin pérdidas y pérdidas, revelando los compromisos entre la eficiencia de la compresión y el rendimiento del procesamiento. Los resultados se han analizado y visualizado para identificar tendencias, puntos fuertes y limitaciones de los códecs evaluados en condiciones comparables. Los resultados proporcionan información práctica sobre la adecuación de distintos enfoques de compresión en función de las características de los datos y los requisitos de la aplicación. Este trabajo aporta un enfoque de benchmarking sistemático y extensible que puede utilizarse como base para futuros estudios comparativos en compresión de datos. [ca] La compressió de dades juga un paper fonamental en els sistemes informàtics moderns, permetent l'emmagatzematge i la transmissió eficients de la informació digital. Donada la gran varietat de còdecs i configuracions de compressió disponibles, l'avaluació objectiva i reproduïble del rendiment és essencial per entendre el seu comportament en diferents tipus de dades. Aquest projecte presenta el disseny i la implementació d'un marc de referència per a l'avaluació de tècniques de compressió sense pèrdues i amb pèrdues, amb un enfocament particular en la compressió d'arxius d'ús general i la compressió d'imatges digitals. Es seleccionen conjunts de dades representatius per cobrir tipus de dades heterogenis, incloent col·leccions d'arxius mixtes i conjunts de dades d'imatges. Es defineixen mètriques de rendiment rellevants, com ara la relació de compressió i el rendiment, per permetre una comparació coherent entre còdecs i nivells de compressió. La metodologia proposada s’ha aplicat a un conjunt de còdecs de compressió àmpliament utilitzats i s’han dut a terme àmplies avaluacions experimentals. Per a la compressió d'arxius, l'anàlisi destaca com el rendiment del còdec varia significativament segons la naturalesa de les dades. Per a la compressió d'imatges, s’han avaluat les configuracions sense pèrdues i amb pèrdues, revelant els compromisos entre l'eficiència de la compressió i el rendiment del processament. Els resultats s'han analitzat i visualitzat per identificar tendències, punts forts i limitacions dels còdecs avaluats en condicions comparables. Els resultats proporcionen informació pràctica sobre l'adequació de diferents enfocaments de compressió en funció de les característiques de les dades i els requisits de l'aplicació. Aquest treball aporta un enfocament de benchmarking sistemàtic i extensible que es pot utilitzar com a base per a futurs estudis comparatius en compressió de dades.
  • logoOpenAccessTreball de fi de grau
    ArtTherapyVR: An Immersive Virtual Reality Environment for Art Therapy
    (2025-12-21) Alfonso Medero, Adrià; López Sánchez, Maite
    [en] Psychological therapy has traditionally focused on verbal communication as the primary means for understanding and addressing emotional and mental health difficulties. However, over time, it became evident that not all individuals are able to fully express their internal experiences through words alone. This limitation led to the development of alternative therapeutic approaches that incorporate non-verbal and experiential methods, aiming to facilitate emotional expression and self-exploration in a more accessible and intuitive way. Within this context, Art therapy emerged in the mid-20th century to integrate creative processes and artistic expression with psychological and emotional goals, enabling individuals to communicate internal experiences that are often difficult to express verbally. Through the use of diverse artistic modalities, art therapy supports self-exploration, emotional regulation, and psychological well-being across clinical and educational settings. As a practice in expansion, art therapy is increasingly being recognized for its potential benefits. This final degree project aims to explore the integration of art therapy with virtual reality (VR), leveraging immersive and controllable digital environments to enhance emotional expression, creativity, and patient engagement in the therapeutic process. This report presents the design, development, and evaluation of ArtTherapyVR, a virtual reality application aimed at enhancing traditional art therapy practices through this interactive technology. The application helps users to express themselves using a range of creative tools, while also allowing them to save and manage their artworks for later reflection and therapeutic review. ArtTherapyVR offers two distinct drawing modes: a virtual whiteboard mode, which simulates a more traditional two-dimensional drawing experience, and a three-dimensional space mode, where users can paint freely within the surrounding virtual environment. The application allows extensive customization, including adjustable brush parameters, modification of the virtual environment, selection of ambient sounds, and changes to sky settings and visual atmospheres. These features are designed to support personalization, emotional comfort, and creative freedom, enabling users to adapt the experience to their preferences and emotional state. To assess its effectiveness and usability, ArtTherapyVR was evaluated through user testing with participants of diverse ages, backgrounds, and levels of technological familiarity. The evaluation results indicate that the application is engaging and intuitive, and that it effectively supports emotional expression. Participants emphasized its potential to increase motivation and creativity. ArtTherapyVR demonstrates the effectiveness of integrating virtual reality with art therapy, serving as a meaningful complement to therapeutic practice. [ca] La teràpia psicològica s’ha centrat tradicionalment en la comunicació verbal com a principal mitjà per comprendre i abordar les dificultats emocionals i de salut mental. Tanmateix, amb el temps es va fer evident que no totes les persones són capaces d’expressar plenament les seves experiències internes únicament a través de les paraules. Aquesta limitació va donar lloc al desenvolupament d’enfocaments terapèutics alternatius que incorporen mètodes no verbals i experiencials, amb l’objectiu de facilitar l’expressió emocional i l’autoconeixement d’una manera més accessible i intuïtiva. En aquest context, l’artteràpia va sorgir a mitjans del segle XX per integrar els processos creatius i l’expressió artística amb objectius psicològics i emocionals, permetent a les persones comunicar vivències internes que sovint són difícils d’expressar verbalment. Mitjançant l’ús de diverses modalitats artístiques, l’artteràpia afavoreix l’autoconeixement, la regulació emocional i el benestar psicològic en diferents contextos clínics i educatius. Com a pràctica en expansió, l’artteràpia està guanyant reconeixement pels seus possibles beneficis. Aquest Treball de Fi de Grau té com a objectiu explorar la integració de l’artteràpia amb la realitat virtual (RV), aprofitant entorns digitals immersius i controlables per potenciar l’expressió emocional, la creativitat i la implicació del pacient en el procés terapèutic. En aquest informe es presenta el disseny, el desenvolupament i l’avaluació d’ArtTherapyVR, una aplicació de realitat virtual orientada a millorar les pràctiques tradicionals de l’artteràpia mitjançant aquesta tecnologia interactiva. L’aplicació permet als usuaris expressar-se mitjançant una àmplia varietat d’eines creatives, així com desar i gestionar les seves obres per a una reflexió i revisió terapèutica posteriors. ArtTherapyVR ofereix dos modes de dibuix diferenciats: un mode de pissarra virtual, que simula una experiència de dibuix bidimensional més tradicional, i un mode d’espai tridimensional, en el qual els usuaris poden pintar lliurement dins de l’entorn virtual que els envolta. L’aplicació permet una àmplia personalització, incloent l’ajust dels paràmetres del pinzell, la modificació de l’entorn virtual, la selecció de sons ambientals i canvis en el cel i l’atmosfera visual. Aquestes característiques estan dissenyades per afavorir la personalització, el confort emocional i la llibertat creativa, permetent als usuaris adaptar l’experiència a les seves preferències i estat emocional. Per avaluar la seva efectivitat i usabilitat, ArtTherapyVR va ser sotmesa a proves amb usuaris de diferents edats, perfils i nivells de familiaritat tecnològica. Els resultats de l’avaluació indiquen que l’aplicació és intuïtiva i atractiva, i que dona suport de manera efectiva a l’expressió emocional. Els participants van destacar el seu potencial per augmentar la motivació i la creativitat. ArtTherapyVR demostra l’efectivitat d’integrar la realitat virtual amb l’artteràpia, constituint-se en un complement significatiu per a la pràctica terapèutica.
  • logoOpenAccessTreball de fi de grau
    Data visualization of AI integration in teaching at the University of Barcelona
    (2026-01-15) Caamaño Barreiro, Manuel; Puig Puig, Anna
    [en] This Final Degree Project explores the use of artificial intelligence (AI) tools in teaching at the University of Barcelona. The objective is to develop a web-based platform that visualizes and enables the analysis of survey data collected within the mapAI-UB Teaching Innovation Project1, with special attention to how AI is being integrated into teaching practices across different faculties. The platform supports interactive exploration through visualizations and filters, transforming questionnaire responses into interpretable insights from both a quantitative perspective (distributions, comparisons, and aggregated scores) and a qualitative one. In particular, the system incorporates open-text analysis to capture and synthesize faculty opinions, including a classification by sentiments/opinions that helps identify trends (positive, negative, or neutral perceptions) and navigate representative comments in a structured way. In addition, a chatbot component is included to help users query the dataset in natural language and interact with the same underlying data shown in the visualizations, ensuring coherence between visual exploration and guided analysis. The project originates from a research initiative led by a team in the Faculty of Education and involves the broader mapAI group2, which brings together academic staff and analysts to study the survey outcomes. The visualizations included in this first prototype meet the initial expectations, enabling a reasoned and visually grounded study of the survey data. [ca] Aquest Treball de Fi de Grau explora l’ús d’eines d’intel·ligència artificial (IA) en la docència a la Universitat de Barcelona. L’objectiu és desenvolupar una plataforma web que visualitzi i permeti analitzar les dades d’una enquesta recollida en el marc del Projecte d’Innovació Docent mapAI-UB3, amb especial atenció a com s’està integrant la IA en les pràctiques docents de diferents facultats. La plataforma facilita l’exploració interactiva dels resultats mitjançant visualitzacions i filtres, transformant respostes de qüestionari en informació interpretable tant des d’un vessant quantitatiu (distribucions, comparatives i puntuacions agregades) com des d’un vessant qualitatiu. En particular, el sistema incorpora anàlisi de respostes obertes per captar i sintetitzar les opinions del professorat, incloent-hi una classificació per sentiments u opinions que permet identificar tendències (percepcions positives, negatives o neutres) i navegar per comentaris representatius de manera estructurada. A més, s’inclou un component de chatbot per ajudar els usuaris a fer consultes en llenguatge natural i interactuar amb les mateixes dades que es mostren a les visualitzacions, mantenint la coherència entre l’exploració visual i l’anàlisi guiada. El projecte sorgeix d’una iniciativa de recerca liderada per un equip de la Facultat d’Educació i compta amb la participació del grup mapAI4, que integra professorat i perfils d’anàlisi per estudiar els resultats de l’enquesta. Les visualitzacions incorporades en aquest primer prototipus cobreixen les expectatives definides a l’inici del projecte, i permeten dur a terme un estudi visual i raonat de les dades obtingudes a l’enquesta. [es] Este Trabajo de Fin de Grado explora el uso de herramientas de inteligencia artificial (IA) en la docencia en la Universidad de Barcelona. El objetivo es desarrollar una plataforma web que visualice y permita analizar los datos de una encuesta recogida en el marco del Proyecto de Innovación Docente mapAI-UB5, con especial atención a cómo se está integrando la IA en las prácticas docentes de distintas facultades. La plataforma facilita la exploración interactiva de los resultados mediante visualizaciones y filtros, transformando respuestas del cuestionario en información interpretable tanto desde una vertiente cuantitativa (distribuciones, comparativas y puntuaciones agregadas) como desde una vertiente cualitativa. En particular, el sistema incorpora análisis de respuestas abiertas para captar y sintetizar las opiniones del profesorado, incluyendo una clasificación por sentimientos u opiniones que permite identificar tendencias (percepciones positivas, negativas o neutras) y navegar por comentarios representativos de forma estructurada. Además, se incluye un componente de chatbot para ayudar a los usuarios a realizar consultas en lenguaje natural e interactuar con los mismos datos que se muestran en las visualizaciones, manteniendo la coherencia entre la exploración visual y el análisis guiado. El proyecto surge de una iniciativa de investigación liderada por un equipo de la Facultad de Educación y cuenta con la participación del grupo mapAI6, que integra profesorado y perfiles de análisis para estudiar los resultados de la encuesta. Las visualizaciones incorporadas en este primer prototipo cumplen las expectativas iniciales, permitiendo un estudio visual y razonado de los datos obtenidos en la encuesta.
  • logoOpenAccessTreball de fi de grau
    Sistema intel·ligent de distribució de comandes en bars basat en càrrega i temps d’execució
    (2026-01-15) Ferrer Fernández, Pol; Clapés i Sintes, Albert
    [ca] Aquest Treball de Fi de Grau se centra en el disseny, implementació i avaluació d’un algoritme de repartiment de càrrega de treball aplicat a la distribució de comandes en entorns de bar amb alta concurrència. La motivació del treball sorgeix de l’experiència directa de l’autor treballant en un bar de còctels, on es van identificar situacions recurrents de saturació a la barra i una distribució poc equilibrada de les tasques entre cambrers, especialment en moments de gran volum de comandes. Tot i que existeixen des de fa anys sistemes informàtics per a la gestió de comandes en bars i restaurants, molts d’aquests es basen en una separació rígida de rols o en fluxos de treball estàtics. En contraposició, la proposta d’aquest treball parteix d’un escenari en què tots els cambrers de barra poden preparar qualsevol producte, i el repte principal és decidir com repartir les tasques de manera eficient i equitativa en temps real. El treball aborda aquest problema mitjançant un enfocament algorísmic basat en criteris de càrrega acumulada, cost estimat de cada producte i ordre temporal de les comandes. S’han dissenyat, implementat i analitzat diferents variacions de l’algoritme de repartiment, amb l’objectiu d’avaluar com afecten aquests criteris al balanç de càrrega, al temps de preparació i al comportament global del sistema. Per validar les diferents propostes, s’ha desenvolupat un sistema software de suport que permet simular escenaris de servei amb múltiples comandes i cambrers, recollint mètriques quantitatives sobre càrrega, temps i inactivitat. Els resultats mostren que l’anàlisi comparativa de les variants de l’algoritme permet identificar estratègies de repartiment més equilibrades i eficients, especialment en situacions d’alta demanda, demostrant la viabilitat de l’enfocament proposat com a eina de suport operatiu en entorns de restauració. [en] This Bachelor’s Thesis explores the design and evaluation of a workload distribution algorithm for managing drink orders in busy bar environments. The work is motivated by the author’s personal experience working as a bartender, where uneven task allocation and congestion at the bar were common issues during peak hours. While digital order management systems are already widely used in the hospitality sector, many of them rely on predefined roles or static task assignments. This project takes a different approach by considering a setting in which all bartenders are equally capable of preparing any item, shifting the focus towards deciding how tasks should be dynamically assigned in real time. The proposed solution is based on an algorithm that considers factors such as the current workload of each bartender, the estimated preparation effort of each product, and the arrival order of requests. Several alternative algorithmic strategies are implemented and compared in order to study their impact on workload balance, service time, and overall system efficiency. A lightweight software system is developed to simulate realistic service scenarios and collect quantitative metrics related to task distribution and bartender activity. The experimental results indicate that comparing different algorithmic variants makes it possible to achieve a more balanced and efficient distribution of work, particularly under high-demand conditions, supporting the validity of the proposed approach as a decision-support mechanism for bar operations. [es] Este Trabajo de Fin de Grado analiza el diseño y la evaluación de un algoritmo de distribución de carga de trabajo aplicado a la gestión de comandas en bares con alta afluencia. El proyecto nace a partir de la experiencia personal del autor trabajando en un bar de cócteles, donde se observaban con frecuencia problemas de saturación en la barra y una asignación desigual de tareas durante los momentos de mayor actividad. Aunque los sistemas digitales de gestión de comandas están ampliamente extendidos en el sector de la restauración, muchos de ellos utilizan flujos de trabajo rígidos o una separación fija de roles. Frente a este enfoque, el presente trabajo considera un escenario en el que todos los camareros de barra pueden preparar cualquier producto, trasladando el reto principal a la asignación dinámica y eficiente de las tareas. La solución propuesta se basa en un algoritmo que tiene en cuenta la carga acumulada de cada camarero, el coste estimado de preparación de los productos y el orden de llegada de las comandas. Se implementan y comparan distintas variantes del algoritmo, con el objetivo de analizar su efecto sobre el equilibrio de carga, los tiempos de servicio y el comportamiento global del sistema. Para llevar a cabo la validación, se desarrolla un sistema software sencillo que permite simular escenarios realistas y obtener métricas cuantitativas sobre la distribución del trabajo y la actividad de los camareros. Los resultados muestran que el análisis comparativo de las distintas estrategias permite mejorar el reparto de tareas, especialmente en situaciones de alta demanda, confirmando la utilidad del enfoque propuesto como herramienta de apoyo operativo.
  • logoOpenAccessTreball de fi de grau
    Accesibilidad en la Visualización de Datos: diseño de gráficos inclusivos en Tableau
    (2025-12-07) Bezares Cano, Paula; Ribera, Mireia
    [ca] Aquest projecte de final de grau s’ha centrat en l’estudi de com aplicar criteris d’accessibilitat per transformar Tableau en una eina inclusiva per a la visualització de dades. S’ha desenvolupat una versió accessible d’un conjunt representatiu de gràfics, basat en la col·lecció del Visual Vocabulary, utilitzant Tableau, amb l’objectiu d’analitzar fins a quin punt les bones pràctiques d’accessibilitat milloren la percepció, la comprensió i la interacció de tota mena d’usuaris. Durant el procés, s’han aplicat les pautes i técniques WCAG 2.2, les heurístiques d’accessibilitat de Rubén Alcaraz i les directrius d’accesibilitat de visualitzacions Chartability per guiar la creació i l’adaptació dels diversos gràfics. Aquest desenvolupament ha permès les dificultats d’accessibilitat presents en els gráfics del Visual Vocabulary i intentar superar-les amb les tècniques que ofereix Tableau per mitigar-les mitjançant configuracions de contrast, etiquetatge, estructura visual i suport per teclat i lectors de pantalla. Aquest treball aporta una base sòlida per al disseny de visualitzacions accessibles en entorns d’anàlisi de dades, i estableix directrius pràctiques per crear els tipus més comuns de gràfics, a partir del conjunt del Visual Vocabulary, a diferents ámbits: educatius, professionals i divulgatius. A més del document escrit, aquest treball es complementa amb un repositori digital que conté tots els gràfics implementats desenvolupats durant el transcurs del projecte. Aquest repositori permet consultar, interactuar i analitzar de manera pràctica els resultats de les adaptacions realitzades. També serveix com a recurs de suport per verificar les millores accessibles aplicades i com a material de referència per a futures implementacions. [es] Este proyecto de fin de grado se ha centrado en el estudio de cómo aplicar criterios de accesibilidad para transformar Tableau en una herramienta inclusiva para la visualización de datos. Se ha desarrollado una versión accesible de un conjunto representativo de gráficos, basado en la colección del Visual Vocabulary, utilizando Tableau, con el objetivo de analizar hasta qué punto las buenas prácticas de accesibilidad mejoran la percepción, comprensión e interacción de todo tipo de usuarios. Durante el proceso, se han aplicado las pautas y técnicas WCAG 2.2, las heurísticas de accesibilidad de Rubén Alcaraz y las directrices de accesibilidad de visualizaciones Chartability para guiar la creación y adaptación de los diversos gráficos. Este desarrollo ha permitido las dificultades de accesibilidad presentes en los gráficos del Visual Vocabulary e intentar superarlas con las técnicas que ofrece Tableau para mitigarlas mediante configuraciones de contraste, etiquetado, estructura visual y soporte por teclado y lectores de pantalla. Este trabajo aporta una base sólida para el diseño de visualizaciones accesibles en entornos de análisis de datos, estableciendo directrices prácticas para crear los tipos más comunes de gráficos, a partir del conjunto del Visual Vocabulary, en diferentes ámbitos: educativos, profesionales y divulgativos. Además del documento escrito, este trabajo se complementa con un repositorio digital que contiene todos los gráficos implementados desarrollados durante el transcurso del proyecto. Este repositorio permite consultar, interactuar y analizar de forma práctica los resultados de las adaptaciones realizadas. También sirve como recurso de soporte para verificar las mejoras accesibles aplicadas y como material de referencia para futuras implementaciones. [en] This final degree project focused on studying how to apply accessibility criteria to transform Tableau into an inclusive tool for data visualization. An accessible version of a representative set of graphs, based on the Visual Vocabulary collection, was developed using Tableau, with the aim of analyzing the extent to which good accessibility practices improve the perception, understanding and interaction of all types of users. During the process, the WCAG 2.2 guidelines and techniques, Rubén Alcaraz's accessibility heuristics and the Chartability visualization accessibility guidelines were applied to guide the creation and adaptation of the various graphs. This development allowed the accessibility difficulties present in the Visual Vocabulary graphs to be identified and attempted to overcome them with the techniques offered by Tableau to mitigate them through contrast settings, labeling, visual structure and support for keyboards and screen readers. This work provides a solid foundation for the design of accessible visualizations in data analysis environments and establishes practical guidelines for creating the most common types of graphics, based on the Visual Vocabulary, in different fields: educational, professional and informative. In addition to the written document, this work is complemented by a digital repository that contains all the implemented graphics developed during the project. This repository allows you to consult, interact and analyze in a practical way the results of the adaptations made. It also serves as a support resource to verify the accessible improvements applied and as reference material for future implementations.
  • logoOpenAccessTreball de fi de grau
    WaveFood: Wavelets CNN Food Segmentation
    (2026-01-15) Fernández Gómez, David; Clop, Albert; Radeva, Petia; AlMughrabi, Ahmad
    (English) Semantic food segmentation faces unique challenges due to high intraclass variance and amorphous, organic shapes. While Convolutional Neural Networks (CNNs) are a very powerful tool, they typically require massive computational resources to handle such texture complexities. Our work proposes WaveFood, a novel Deep Learning framework integrating Spectral Image Representation, based on the hypothesis that CNNs benefit from deeper spectral representations than the canonical spatial representation used by humans. Benchmarked against a robust CCNet baseline on the FoodSeg103 dataset, our experiments show that the rigid, axis-aligned Haar Wavelets are unsuitable for food. In contrast, Zernike approaches yield accuracy surpassing the baseline. Notably, the orthonormal Zernike Moments proved superior to the custom MRA wavelet approach, surpassing the baseline’s accuracy by 0.87%, 1.74% and 0.14% in mIoU, mAcc and aAcc correspondingly, while reducing training time by approximately 22%. Furthermore, our Multi-Level architecture significantly lowers VRAM usage by approximately 23%, maintaining baseline accuracy, validating spectral features as a superior efficiency-performance alternative to raw image data. The source code is available at: 2. (Catalan) La segmentació semàntica d’aliments presenta reptes únics a causa de l’alta variància intra-classe i les formes orgàniques i amorfes. Tot i que les Xarxes Neuronals Convolucionals (CNNs) són una eina molt potent, sovint requereixen recursos computacionals massius per gestionar aquestes complexitats de textura. El nostre treball proposa WaveFood, un nou framework de Deep Learning que integra la Representació d’Imatge Espectral, basat en la hipòtesi que les CNNs es beneficien de representacions espectrals més profundes que la representació espacial canònica utilitzada pels humans. Avaluat en el dataset FoodSeg103 contra un baseline robust CCNet, els nostres experiments demostren que la naturalesa rígida de les Wavelets de Haar i la seva alineació amb els eixos són inadequades per al menjar. En canvi, els enfocaments de Zernike proporcionen una precisió que supera la del baseline per 0.87%, 1.74% and 0.14% en mIoU, mAcc and aAcc corresponentment. Destaca especialment que els Moments ortonormals de Zernike han resultat superiors a l’enfocament personalitzat de wavelets MRA, superant la precisió del baseline i reduint el temps d’entrenament aproximadament un 22%. A més, la nostra arquitectura Multi-Nivell redueix significativament l’ús de VRAM un 23% aproximadament, mantenint la precisió del baseline, validant les característiques espectrals com una alternativa superior en eficiència i rendiment a les dades d’imatge originals El codi relacionat es pot trobar a: 2.
  • logoOpenAccessTreball de fi de grau
    A comparison of machine learning methods for biomedical named entity recognition
    (2026-01-16) Chueca Negre, Enrique; Ortiz Martínez, Daniel
    [en] This thesis presents a comparative analysis of machine learning methods for Named Entity Recognition (NER) in biomedical text. Three approaches were implemented and evaluated on the JNLPBA dataset: a statistical baseline using Conditional Random Fields (CRF), and two Transformer-based models (BERT and BioBERT). Results demonstrate that domain-specific pre-training significantly improves performance, with BioBERT achieving the highest Micro F1-Score of 0.7422, compared to 0.7195 for BERT and 0.6575 for CRF. Error analysis reveals that boundary detection and semantic similarity between entity types (CELL_TYPE vs. CELL_LINE, DNA vs. PROTEIN) are the main sources of errors across all models. The findings confirm the importance of transfer learning and domain adaptation for specialized NLP tasks, while also highlighting the continued challenges in biomedical entity recognition. [es] Este trabajo de fin de grado presenta un análisis comparativo de métodos de aprendizaje automático para el Reconocimiento de Entidades Nombradas (NER) en texto biomédico. Se implementaron y evaluaron tres enfoques utilizando el dataset JNLPBA: un modelo estadístico basado en Campos Aleatorios Condicionales (CRF) como línea base, y dos modelos basados en Transformers (BERT y BioBERT). Los resultados demuestran que el pre-entrenamiento específico de dominio mejora significativamente el rendimiento. BioBERT alcanzó la puntuación F1 Micro más alta (0,7422), en comparación con 0,7195 de BERT y 0,6575 del CRF. El análisis de errores revela que la detección de límites de entidades y la similitud semántica entre tipos de entidades (CELL_TYPE vs. CELL_LINE, DNA vs. PROTEIN) son las principales fuentes de error en todos los modelos. Los hallazgos confirman la importancia del aprendizaje por transferencia y la adaptación de dominio para tareas especializadas de PLN, al tiempo que destacan los desafíos persistentes en el reconocimiento de entidades biomédicas. [ca] Aquest treball de fi de grau presenta una anàlisi comparativa de mètodes d’aprenentatge automàtic per al Reconeixement d’Entitats Anomenades (NER) en text biomèdic. S’han implementat i avaluat tres enfocaments utilitzant el dataset JNLPBA: un model estadístic basat en Camps Aleatoris Condicionals (CRF) com a línia base, i dos models basats en Transformers (BERT i BioBERT). Els resultats demostren que el pre-entrenament específic de domini millora significativament el rendiment. BioBERT va assolir la puntuació F1 Micro més alta (0,7422), en comparació amb 0,7195 de BERT i 0,6575 del CRF. L’anàlisi d’errors revela que la detecció de límits d’entitats i la similitud semàntica entre tipus d’entitats (CELL_TYPE vs. CELL_LINE, DNA vs. PROTEIN) són les principals fonts d’error en tots els models. Les troballes confirmen la importància de l’aprenentatge per transferència i l’adaptació de domini per a tasques especialitzades de PLN, alhora que destaquen els reptes persistents en el reconeixement d’entitats biomèdiques.
  • logoOpenAccessTreball de fi de grau
    Autonomous Mobile Robot for Traffic Sign Detection Using YOLO and a 3D Depth Camera with ROS 2 and Docker-Based Deployment
    (2026-01-15) Astudillo Soriano, Johnny Brent; Puig i Vidal, Manuel
    [en] This Final Degree Project extends and improves a reactive navigation system based on a computer vision approach and focused on traffic sign detection. Specifically, it integrates a 3D depth camera into the detection pipeline to obtain real-world distances, and enable the control over a LIMO’s robot navigation system. Moreover, it addresses a latency issue derived from TheConstruct–a remote development platform centred on ROS–, by building a local development environment based on Docker and ROS2 Humble. Finally, it includes a set of code optimizations that not only removes the existing coupling in favour of a clean architecture but also increases the reliability of the distributed and concurrent system; improving the project’s modularity, extensibility, and robustness. [ca] Aquest Treball Final de Grau amplia i millora un sistema de navegació reactiva centrat en la detecció de senyals de trànsit mitjançant visió artificial. En concret, integra una càmera de profunditat 3D en el pipeline de detecció per obtenir distàncies reals de forma precisa, cosa que permet el control de la navegació d’un robot LIMO. A més, planteja la solució a un problema de latència derivat de la plataforma remota TheConstruct mitjançant la construcció d’un entorn de desenvolupament local basat en Docker i ROS2 Humble. Finalment, es realitzen una sèrie d’optimitzacions en el codi que no només eliminen l’acoblament existent en favor d’una arquitectura més neta, sinó que augmenten la fiabilitat del sistema distribuït i concurrent; augmentant la modularitat, extensibilitat i robustesa del projecte. [es] Este Trabajo Final de Grado extiende y mejora un sistema de navegación reactiva centrado en la detección de señales de tráfico mediante visión artificial. En concreto, integra una cámara de profundidad 3D en el pipeline de detección para obtener distancias reales de forma precisa, permitiendo así el control de la navegación de un robot LIMO. Además, plantea una solución a un problema de latencia derivado de la plataforma remota TheConstruct mediante la construcción de un entorno de desarrollo local basado en Docker y ROS2 Humble. Finalmente, se realizan una serie de optimizaciones en el código que no solo eliminan el acoplamiento existente en favor de una arquitectura más limpia, sino que aumentan la fiabilidad del sistema distribuido y concurrente; incrementando la modularidad, extensibilidad y robustez del proyecto.
  • logoOpenAccessTreball de fi de grau
    ComfyMind: desenvolupament d'un servei web per artteràpia basat en la generació d'imatges amb ComfyUI
    (2026-01-15) Benito Reyes, Diana; López Sánchez, Maite
    [en] Currently, generative artificial intelligence is enabling new possibilities in the development of interactive digital tools, especially in sectors where creativity plays a fundamental role. In the field of art therapy, these technologies can serve as innovative resources to enhance people’s creativity and accompany them on the path to well-being and personal fulfilment. This project presents ComfyMind, a web application designed to conduct art therapy sessions with an image generation method assisted by artificial intelligence. The system provides an environment for communication between patients and art therapists in sessions, while offering various image generation options. Thus, a unique work can be generated by the application at each iteration based on a textual description, an input image, a sketch, or the combination of multiple images. The result is a tool that merges technology with art therapy, to explore the potential of artificial intelligence in creative therapeutic processes. The application is based on a distributed client-server architecture, formed by a backend implemented with FastAPI and a frontend developed with Vue. On the other hand, image generation is delegated by the system to a ComfyUI server, an open-source tool based on artificial intelligence models that allows the definition of custom workflows using nodes and adjustable parameters. [es] Actualmente, la inteligencia artificial generativa está abriendo nuevas posibilidades en el desarrollo de herramientas digitales interactivas, especialmente en sectores donde la creatividad tiene un papel fundamental. En el ámbito de la arteterapia, estas tecnologías pueden actuar como recursos innovadores para potenciar la creatividad de las personas y acompañarlas en el camino hacia el bienestar y la realización personal. En este proyecto se presenta ComfyMind, una aplicación web diseñada para la realización de sesiones de arteterapia con un método de generación de imágenes asistido por inteligencia artificial. El sistema proporciona un entorno de comunicación entre pacientes y arteterapeutas durante las sesiones, a la vez que ofrece varias opciones de generación de imágenes. Así, permite generar en cada iteración una obra única partiendo de una descripción textual, de una imagen de entrada, de un boceto o de la combinación de varias imágenes. El resultado es una herramienta que fusiona la tecnología con la arteterapia, para explorar el potencial de la inteligencia artificial en procesos terapéuticos creativos. La aplicación se basa en una arquitectura cliente-servidor distribuida, formada por un backend implementado con FastAPI y un frontend desarrollado con Vue. Por otro lado, la generación de imágenes se delega a un servidor de ComfyUI, una herramienta de código abierto basada en modelos de inteligencia artificial que permite definir flujos de trabajo personalizados mediante nodos y parámetros ajustables. [ca] Actualment, la intel·ligència artificial generativa està obrint noves possibilitats en el desenvolupament d’eines digitals interactives, especialment en sectors on la creativitat té un paper fonamental. En l’àmbit de l’artteràpia, aquestes tecnologies poden actuar com a recursos innovadors per potenciar la creativitat de les persones i acompanyar-les en el camí cap al benestar i la realització personal. En aquest projecte es presenta ComfyMind, una aplicació web dissenyada per a la realització de sessions d’artteràpia amb un mètode de generació d’imatges assistit per intel·ligència artificial. El sistema proporciona un entorn de comunicació entre pacients i artterapeutes durant les sessions, alhora que ofereix diverses opcions de generació d’imatges. Així, permet generar en cada iteració una obra única partint d’una descripció textual, d’una imatge d’entrada, d’un esbós o de la combinació de diverses imatges. El resultat és una eina que fusiona la tecnologia amb l’artteràpia, per explorar el potencial de la intel·ligència artificial en processos terapèutics creatius. L’aplicació es basa en una arquitectura client-servidor distribuïda, formada per un backend implementat amb FastAPI i un frontend desenvolupat amb Vue. D’altra banda, la generació d’imatges es delega a un servidor de ComfyUI, una eina de codi obert basada en models d’intel·ligència artificial que permet definir fluxos de treball personalitzats mitjançant nodes i paràmetres ajustables.
  • logoOpenAccessTreball de fi de grau
    Explicabilitat de models d’Aprenentatge Automàtic mitjançant valors SHAP
    (2026-01-15) Asins Hidalgo, Raül; Pujol Vila, Oriol; Ballestero Ribó, Marc
    [en] This project analyses the behaviour of a machine learning regression model through explainability techniques based on SHAP (SHapley Additive exPlanations). The main objective is not only to achieve accurate predictions, but also to understand how and why the model makes its decisions. The work is structured into two main parts. The first, of a theoretical nature, introduces the fundamentals of machine learning applied to regression problems, as well as the concept of Shapley values, their origin in game theory, and their adaptation to model explainability through the SHAP framework. The second part focuses on the practical implementation of the methodology. It describes the data preprocessing pipeline, model training, and evaluation process. Using a Random Forest Regressor and the SHAP Python library, the influence of different features on house price predictions is analysed from both global and local perspectives. The results show that the model relies on features that are consistent with domain knowledge and that explainability techniques provide clear and transparent insights into the model’s decision-making process. This improves the interpretability, reliability, and trustworthiness of the predictive system. [ca] En aquest projecte s’analitza el comportament d’un model d’aprenentatge automàtic de regressió mitjançant tècniques d’explicabilitat basades en SHAP (SHapley Additive exPlanations). L’objectiu principal no és únicament obtenir bones prediccions, sinó comprendre com i per què el model pren les seves decisions. El treball es divideix en dos grans blocs. En el primer, de caràcter teòric, es presenten els fonaments de l’aprenentatge automàtic aplicat a problemes de regressió, així com el concepte de valors de Shapley, el seu origen en la teoria de jocs i la seva adaptació al camp de l’explicabilitat de models mitjançant SHAP. En el segon bloc, de caràcter pràctic, es descriu el procés complet de tractament del conjunt de dades, entrenament del model i anàlisi dels resultats. A partir de l’ús d’un model Random Forest Regressor i de la llibreria SHAP en Python, s’estudia com les diferents variables influeixen en la predicció del preu dels habitatges, tant des d’una perspectiva global com local. Els resultats obtinguts mostren que el model basa les seves prediccions en característiques coherents amb el domini del problema i que les tècniques d’explicabilitat permeten interpretar de manera clara i transparent el seu comportament, reforçant la fiabilitat i la comprensió del sistema predictiu. [es] En este proyecto se analiza el comportamiento de un modelo de aprendizaje automático de regresión mediante técnicas de explicabilidad basadas en SHAP (SHapley Additive exPlanations). El objetivo principal no es únicamente obtener buenas predicciones, sino comprender cómo y por qué el modelo toma sus decisiones. El trabajo se divide en dos grandes bloques. En el primero, de carácter teórico, se presentan los fundamentos del aprendizaje automático aplicado a problemas de regresión, así como el concepto de valores de Shapley, su origen en la teoría de juegos y su adaptación al campo de la explicabilidad de modelos mediante SHAP. En el segundo bloque, de carácter práctico, se describe el proceso completo de tratamiento del conjunto de datos, entrenamiento del modelo y análisis de los resultados. A partir del uso de un modelo Random Forest Regressor y de la librería SHAP en Python, se estudia cómo las diferentes variables influyen en la predicción del precio de las viviendas, tanto desde una perspectiva global como local. Los resultados obtenidos muestran que el modelo basa sus predicciones en características coherentes con el dominio del problema y que las técnicas de explicabilidad permiten interpretar de manera clara y transparente su comportamiento, reforzando la fiabilidad y la comprensión del sistema predictivo.
  • logoOpenAccessTreball de fi de grau
    Gardenstack: Gamified Computational Thinking
    (2026-01-15) Batista Ballesteros, Beatriz; Puig Puig, Anna; Rodríguez Santiago, Inmaculada
    [es] Aquest projecte presenta el disseny i desenvolupament de Gardenstack, un joc seriós educatiu de trencaclosques que ajuda estudiants a adquirir habilitats de Pensament Computacional mitjançant mecàniques de programació visual. El projecte cerca proporcionar un entorn intuïtiu i segur per desenvolupar habilitats de disseny d’algorismes i resolució de problemes sense les barreres de la programació tradicional. [es] Este proyecto presenta el diseño y desarrollo de Gardenstack, un juego serio educativo de puzzles que ayuda a estudiantes a adquirir habilidades de Pensamiento Computacional mediante mecánicas de programación visual. El proyecto busca proporcionar un entorno intuitivo y seguro para desarrollar habilidades de diseño de algoritmos y resolución de problemas sin las barreras de la programación tradicional. [en] This project presents the design and development of Gardenstack, a serious educational puzzle game that assists students in the acquisition of Computational Thinking skills through visual programming mechanics. The project aims to provide an intuitive and safe environment for developing algorithm design and problem-solving skills without the barriers of traditional coding.
  • logoOpenAccessTreball de fi de grau
    Plataforma web de diálogo asistido por IA en el contexto del arteterapia
    (2026-01-15) Aladjem Ramallo, Tomás; López Sánchez, Maite
    [en] This Final Degree Project presents MINDSCAPE, an interactive web application, which is inspired on the principles of art therapy, which explores new forms of human–machine interaction through the integration of multimodal artificial intelligenceand immersive visual design. The platform enables users to initiate a dialogue with images that serve as prompts to engage in conversation. The project implements a conversational system capable of analyzing visual content, as well as, generating contextualized responses which place artwork in the central axis of the self-exploration process. The project has been developed as a Minimum Viable Product (MVP) focused on functional and expressive experimentation, in which, the image serves as a semantic catalyst for dialogue. The solution integrates natural language processing and image analysis techniques, paired up with a web interface designed to prioritize conversational content as the core element of the user experience. The system architecture consists of a modern, responsive frontend implemented using React technologies, and a backend responsible for managing interactions with the artificial intelligence model. From an ethical perspective, the platform is envisioned as a foundation for the development of future applications that promote responsible, transparent, and respectful uses of artificial intelligence in contexts related to emotional well-being and self-exploration. The platform is conceived as a tool to support personal reflection and subjective expression, without seeking to replace the intervention of mental health professionals. [es] Este Trabajo de Fin de Grado presenta MINDSCAPE, una aplicación web interactiva fundamentada en los principios de la arteterapia, que explora nuevas formas de interacción humano–máquina mediante la integración de inteligencia artificial multimodal y un diseño visual inmersivo. La plataforma permite a la persona usuaria iniciar un diálogo a partir de imágenes que actúan como prompts para iniciar la interacción. El proyecto utiliza un sistema conversacional capaz de analizar contenido visual y generar respuestas contextualizadas que sitúan la obra artística como eje central del proceso de autoexploración. El proyecto se ha desarrollado como un Producto Mínimo Viable (MVP) orientado a la experimentación tanto funcional como expresiva, en el que la imagen actúa como un catalizador semántico del diálogo. La solución integra técnicas de procesamiento del lenguaje natural y análisis de imágenes, junto con una interfaz web diseñada para priorizar el contenido conversacional como elemento principal de la experiencia de usuario. La arquitectura del sistema se compone de un frontend moderno y responsivo, implementado con tecnologías React, y un backend encargado de gestionar las interacciones con el modelo de inteligencia artificial. Desde una perspectiva ética, la plataforma se concibe como una base para el desarrollo de futuras aplicaciones que promuevan un uso responsable, transparente y respetuoso de la inteligencia artificial en contextos relacionados con el bienestar emocional y la autoexploración. Asimismo, MINDSCAPE se plantea como una herramienta de apoyo a la reflexión personal y la expresión subjetiva, sin pretender sustituir en ningún caso la intervención de profesionales de la salud mental. [ca] Aquest Treball de Fi de Grau presenta MINDSCAPE, una aplicació web interactiva fonamentada en els principis de l’artteràpia, que explora noves formes d’interacció humà–màquina mitjançant la integració d’intel·ligència artificial multimodal i un disseny visual immersiu. La plataforma permet als usuaris iniciar un diàleg a partir d’imatges que actuen com a prompts per inicialitzar la interacció. El projecte utilitza un sistema conversacional capaç d’analitzar contingut visual i generar respostes contextualitzades que situen l’obra artística com a eix central del procés d’autoexploració. El projecte s’ha desenvolupat com un Producte Mínim Viable (MVP) orientat a l’experimentació tant funcional com expressiva, en el qual la imatge actua com un catalitzador semàntic del diàleg. La solució integra tècniques de processament del llenguatge natural i anàlisi d’imatges, juntament amb una interfície web dissenyada per prioritzar el contingut conversacional com a element principal de l’experiència d’usuari. L’arquitectura del sistema es compon d’un frontend modern i responsiu, implementat amb tecnologies React, i d’un backend encarregat de gestionar les interaccions amb el model d’intel·ligència artificial. Des d’una perspectiva ètica, la plataforma es concep com una base per al desenvolupament de futures aplicacions que promoguin un ús responsable, transparent i respectuós de la intel·ligència artificial en contextos relacionats amb el benestar emocional i l’autoexploració. Així mateix, MINDSCAPE es planteja com una eina de suport a la reflexió personal i a l’expressió subjectiva, sense pretendre substituir en cap cas la intervenció de professionals de la salut mental.