Treballs Finals de Grau (TFG) - Enginyeria Informàtica
URI permanent per a aquesta col·leccióhttps://diposit.ub.edu/handle/2445/34465
Treballs Finals del Grau d'Enginyeria Informàtica de la Facultat de Matemàtiques i Informàtica de la Universitat de Barcelona.
Examinar
Enviaments recents
Mostrant 1 - 20 de 633
Treball de fi de grau
Implementación de un sistema de encriptación y autenticación basado en blockchain en el entorno RV-FPGA(2025-06-10) Martínez Abete, Pablo; López de Miguel, ManuelEl objetivo principal de este trabajo de fin de grado es realizar y evaluar la implementación de un sistema básico de blockchain en un entorno dedicado con recursos limitados. Este estudio permitirá cuantificar la viabilidad de la utilización de este tipo de dispositivos en ámbitos académicos y profesionales. A su vez cuestionará su posible uso de manera extendida, planteando así la posibilidad de ampliar el uso y la adopción de sistemas blockchain para aumentar la seguridad y mantener la integridad de los datos de diferentes sectores populares, incluso siendo éstos una versión básica o simplificada de las ya conocidas implementaciones complejas utilizadas, como por ejemplo la utilizada en el mundo de las Criptomonedas. El sistema blockchain a implementar y estudiar estará fundamentado en un programa que asegure la integridad de los datos contenidos mediante el uso de los algoritmos criptográficos SHA (Secure Hash Algorithm) y AES (Advanced Encryption Standard). El algoritmo AES permitirá el cifrado de los datos de manera reversible para garantizar la seguridad de los datos, mientras que el algoritmo SHA se utilizará para verificar la integridad de los bloques de datos y protegerlos de modificaciones y vulneraciones.Treball de fi de grau
Projecte GOLEM XIV Versió 3.0: Millora d'Arquitectura, Noves Funcionalitats i Nova Interfície d'Usuari(2025-06-10) Marín Herrera, Sergio; Ortiz Martínez, DanielAl llarg dels darrers anys, la integració de la tecnologia en l'àmbit educatiu ha permès automatitzar processos que tradicionalment requerien una elevada càrrega manual. Un exemple d'això és la correcció de pràctiques de programació, una tasca repetitiva i costosa per als docents. Aquest Treball de Fi de Grau presenta Golem XIV, una plataforma web que, en la seva tercera versió, proporciona una solució completa per a la gestió i autocorrecció d'aquestes pràctiques, facilitant molt la feina del professorat i oferir als alumnes una resposta més ràpida. L'aplicació permet als professors pujar els fitxers d'autocorrecció específics de cada pràctica i, posteriorment, els estudiants poden enviar les seves solucions a través del sistema. Així, la creació d’aquesta eina no només simplifica la tasca per als professors, sinó que també millora l’experiència d’aprenentatge dels estudiants, proporcionant un entorn més dinàmic i interactiu. Una de les prioritats d’aquesta versió del projecte ha estat renovar completament la interfície d’usuari i experiència d’usuari per fer-la més clara, intuïtiva i agradable d’utilitzar. Tant els estudiants com els professors poden consultar de forma visual el progrés de les pràctiques, accedir a un calendari amb els terminis d’entrega, nous panells de control pel professorat i rebre notificacions quan hi ha canvis en l’estat d’alguna pràctica. Així com, una pàgina principal en format tauler per tenir la informació important recollida en un sol lloc. Així mateix, s’ha refactoritzat l’estructura interna de l’aplicació per fer-la més estable i fàcil de mantenir en el futur gràcies a la seva a la modularitat. El sistema s’ha distribuït en diferents serveis per funcionar de manera més eficient i ha estat desplegat al núvol perquè es pugui accedir-hi des de qualsevol lloc. En definitiva, Golem XIV no només optimitza el procés de correcció, sinó que transforma l'experiència educativa, oferint una eina moderna, eficient i alineada amb les necessitats actuals del món acadèmic.Treball de fi de grau
Differentially Private Machine Learning: Implementation and Analysis of Gradient and Dataset Perturbation Techniques(2025-06-10) Mantilla Carreño, Juan Pablo; Statuto, NahuelThe increasing use of machine learning poses significant privacy risks, especially when sensitive data is used, and conventional anonymization methods have proven insufficient. Differential privacy is a rigorous framework for data privacy providing strong mathematical guarantees. The possibility of applying this framework to machine learning solves the privacy problem. We will present the fundamental basis of these concepts to empirically investigate, implement, and analyse two techniques for integrating differential privacy into machine learning pipelines. The first technique, dataset perturbation, involves adding calibrated Gaussian noise directly to the training data and then using any standard machine learning pipeline. The second, gradient perturbation, centers on differentially private stochastic gradient descent, is an approach that injects noise into the gradients during the training phase. For the comparative study, we developed a multi-class classification architecture using a real-world, sensitive medical dataset derived from the MIMIC-IV database. Model performance was evaluated against a non-private baseline, using the appropriate metrics considering our class imbalance, such as Macro F1-score and Macro OVO AUC. The results confirm the trade-off between privacy and utility in the models developed, where higher privacy guarantees consistently result in reduced model utility. For the specific context of this study, gradient perturbation provided a slightly more advantageous model in overall balance of utility and privacy. Ultimately, the thesis provides strong evidence for the feasibility of training useful and formally private machine learning models on real-world medical data, successfully demonstrating a practical "sweet spot" between privacy and performance can be found.Treball de fi de grau
Implementation of a full-stack blog content management system with a specialized rich text editor(2025-06-09) Natan Malysa, Kamil; Baró i Solé, XavierContent management systems for publishing blog-like websites are widely used across the internet, however despite advancements in web development technologies, the existing solutions are reluctant to take advantage of them. Established blog content management systems find themselves in environments with declining developer support, and content editing tools that have fallen behind standards set by new frameworks. This project explores the process of implementing a blog-centric content management system using modern web technologies and a RESTful backend, employing emerging frameworks to build an alternative that takes advantage of the rich content editing user experience that these frameworks enable. The content management system created in this project makes use of Nuxt and FastAPI to create a robust full-stack blogging solution, with an emphasis on the user experience of writing blog content through a custom rich text editor built upon the ProseMirror framework.Treball de fi de grau
AdoptAble: Creació d’una plataforma d’adopció(2025-06-10) Losquiño Álvarez, Marc; Baró i Solé, XavierAdoptAble és una plataforma web desenvolupada per simplificar i millorar el procés d’adopció de gossos connectant de manera efectiva les protectores amb els possibles adoptants. El seu objectiu principal és ser un entorn intuı̈tiu, fàcil d’utilitzar i centralitzat que optimitzi la comunicació, la gestió i tot el flux d’adopcions. El desenvolupament d’AdoptAble ha implicat l’ús de tecnologies web modernes, concretament React amb TypeScript, Django amb Django REST Framework, PostgreSQL i MinIO. Les caracterı́stiques clau de la plataforma són l’accessibilitat i la usabilitat, validades mitjançant el retorn d’usuaris i proves exhaustives, assolint una puntuació d’accessibilitat de Lighthouse de fins al 95%. També incorpora mesures de seguretat com el control d’accés basat en rols, l’autenticació segura i pràctiques estrictes de validació de dades per mitigar vulnerabilitats com CSRF, injecció SQL i XSS. Pel que fa a les funcionalitats essencials, la plataforma s’adapta a les necessitats reals incloent-hi perfils detallats dels animals, filtratges avançats segons les preferències dels usuaris, sol·licituds digitals d’adopció simplificades, gestió de donacions i perfils complets tant per a usuaris com per a protectores. Aquest projecte ofereix una base sòlida i escalable per a futures millores. Entre les possibles extensions hi ha un suport multilingüe més ampli, capacitats analı́tiques més profundes per a les protectores i una automatització més gran del procés d’adopció. En definitiva, AdoptAble contribueix de manera significativa a fer els processos d’adopció d’animals més eficients, transparents i accessibles, impactant positivament protectores, adoptants i animals.Treball de fi de grau
Game User Research (GUR): Aplicació pràctica en el redisseny d’un videojoc(2025-06-10) Li, Jiaqi; Ribera, MireiaAquest Treball de Fi de Grau consisteix en el redisseny del videojoc Golfever aplicant metodologies de recerca d’usuaris en videojocs (Game User Research). L’objectiu és analitzar i millorar l’experiència de joc a través de dades qualitatives i quantitatives, inclòs l’estudi de motivacions dels jugadors, proves d’usabilitat i anàlisi del mercat. El desenvolupament es divideix en tres fases iteratives amb metodologia SCRUM adaptada a un sol desenvolupador. Els resultats mostren com ‘entendre els usuaris’ permet crear un producte més sòlid i enfocat als usuaris. El treball es completa amb una taula resum de les tècniques de GUR aplicades, la seva utilitat percebuda i una sèrie de consells pràctics derivats de l’experiència, pensats per ajudar altres desenvolupadors independents amb recursos limitats.Treball de fi de grau
Ethical reasoning in Large Language Models(2025-06-10) Li Chen, Chengheng; López Sánchez, MaiteLarge language models have evolved beyond simple text generation to serve as sophisticated decision-making aids and moral advisors across diverse domains. However, these systems exhibit systematic biases that may compromise their reliability when confronted with complex reasoning tasks, particularly in ethically nuanced scenarios where consistent judgment is important. Despite significant advances in alignment methodologies, including Reinforcement Learning from Human Feedback (RLHF) and Direct Preference Optimization (DPO), current approaches predominantly focus on preventing overtly harmful outputs while potentially neglecting deeper structural inconsistencies in reasoning processes that can manifest when models encounter contextually biased inputs. This research explores AI alignment by investigating whether established cognitive debiasing techniques from psychology can be systematically adapted and integrated into machine learning training protocols. We introduce the COPO (Consider the Opposite, Perspective-taking, and Open-minded thinking) module, which operationalizes three empirically validated psychological debiasing interventions into computational training methodologies. This approach represents a possible shift from reactive harm mitigation toward proactive development of reasoning capabilities that may demonstrate more principled consistency across diverse contexts. Our methodology combines two complementary investigative approaches: external structured prompting interventions and embedded training pipeline integration. Using 2,491 real world ethical scenarios, we employ three evaluation metrics (Political Disagreement Index, Symmetric Consensus Change, and Overall Intervention Effectiveness) to measure bias reduction with statistical rigor. Structured prompting experiments demonstrate promising bias mitigation, achieving 18.1% reduction in cross-perspective disagreement patterns alongside a favorable 2.6:1 improvement-to-deterioration ratio. The training integration implements a three-phase RL-SFT-RL pipeline encompassing baseline Group Relative Policy Optimization (GRPO), COPO-informed supervised fine-tuning, and transfer assessment through resumed reinforcement learning. This methodology employs multicomponent reward architectures evaluating verdict accuracy, structural compliance, and six dimensional reasoning quality through strong-to-weak supervision. The integrated training achieves 21.9% improvement in ethical reasoning quality, with the model gaining higher rewards after COPO supervised fine-tuning and showing persistence through autonomous learning phases with evidence of knowledge transfer to previously unseen scenarios. Empirical results suggest that psychology-informed interventions can enhance analytical sophistication while reducing contextual bias susceptibility. The enhanced model demonstrates improved stakeholder consideration, systematic evidence integration, and more consistent moral judgment across varied framings without compromising decision accuracy. This work provides evidence that systematically embedding cognitive debiasing techniques into training protocols may enable AI systems to engage in more balanced reasoning, contributing to methodological foundations for psychology-informed AI alignment approaches.- Treball de fi de grauAn Interactive LLM-based Conversational Agent for Complex Data Analysis(2025-07-04) Jurado González, Rubén; Puig Puig, Anna; Rodríguez Santiago, InmaculadaComplex multivariate datasets—characterized by complex parent-child structures and rich attributes such as hierarchies and networks—pose challenges for intuitive exploration and analysis. This work presents an interactive visualization system integrated with a conversational agent (chatbot) to support natural language interaction with such data, especially for domain experts. Users can upload datasets, issue natural language queries, manipulate interface elements (e.g., buttons, panels), and generate custom visualizations including force-directed graphs, circle-packing layouts, and tabular charts. These features enhance data interpretability and engagement. The system includes a robust NLP pipeline based on DistilBERT for intent classification, optimized through data balancing and retraining. Visualizations, rendered in real time with Plotly and D3.js in a Dash interface, support interactions such as zooming, panning, node selection, and dynamic color mapping via language commands. A Retrieval-Augmented Generation (RAG) pipeline enriches chatbot responses using contextual information from uploaded documents. The system also supports misclassification reporting to iteratively refine the NLP model. It handles large-scale hierarchical data efficiently and has been validated on examples like organizational charts and threaded discussions. Notable features include real-time GUI customization, multi-turn conversational support, and popup visualizations from selected data subsets using intuitive queries (e.g., “Show toxicity distribution”). User testing showed high satisfaction among experts, while novices noted a steeper learning curve during onboarding.
Treball de fi de grau
Exploring a multimodal foundation model on breast cancer visual question answering(2025-06-10) Iglesias Murrieta, José Javier; Díaz, OliverCancer remains a leading cause of mortality worldwide, with breast cancer being the most frequently diagnosed. Early and accurate detection is critical to improving patient outcomes, and recent advances in artificial intelligence (AI) have demonstrated significant potential in supporting this goal. Machine learning (ML) and deep learning (DL) techniques have been widely applied to medical imaging tasks enhancing diagnostic accuracy across modalities such as mammography, ultrasound, and magnetic resonance imaging (MRI). However, most models require task-specific training and large annotated datasets, limiting their scalability and generalizability. In response to these limitations, foundation models (FMs) have emerged as a promising shift in AI research. These large scale models are pre-trained on diverse data and can be adapted to a wide range of downstream tasks, including multimodal medical applications. Their capacity for zero-shot and few-shot learning presents opportunities for improving diagnostic support in data constrained settings. This research explores the application of FMs in breast cancer analysis, specifically assessing their ability to perform visual question answering (VQA) on the BCDR-F01 and BreakHis breast imaging datasets. The study involves selecting a suitable vision-language FM and evaluating zero-shot and fine-tuning strategies to breast imaging data. Results demonstrate that while FMs show promising zero-shot performance and flexibility, their effectiveness depends heavily on model scale, fine-tuning approach, and task formulation, especially in complex multimodal tasks such as VQA. Instruction tuning and multimodal alignment emerged as critical factors for improving clinical relevance. This research highlights the potential of FMs to serve as integrative tools for breast cancer analysis, leveraging multimodal data with minimal retraining. Nonetheless, challenges remain in optimizing performance for clinical deployment, particularly around interpretability, domain-specific adaptation, and computational cost.Treball de fi de grau
Metodología para Aplicación del ENS 2022 Nivel ALTO en PYMES(2025-06-10) González Braza, Daniel; Roca Cánovas, RaúlLa adopción del ENS 2022 en su nivel Alto exige a las PYMEs implantar numerosas medidas de seguridad, lo cual suele resultar costoso y complejo dada su falta de personal especializado y recursos limitados. Este Trabajo de Fin de Grado presenta una metodología asistida por software, implementada en una plataforma Dockerizada, que guía a las empresas a lo largo de todo el proceso de adecuación. La solución integra ocho scripts que cubren fases clave: evaluación inicial de cumplimiento, generación de diagnóstico con recomendaciones, creación de políticas de seguridad, auditoría de permisos, monitorización de incidentes, simulación de ataques, optimización de recursos y elaboración de informes ejecutivos. Cada script automatiza tareas que, de otro modo, requerirían horas de trabajo manual. La plataforma se validó en un entorno de laboratorio Windows / Linux, demostrando que es posible automatizar gran parte de los controles programables, reducir significativamente el esfuerzo operativo y generar la documentación necesaria para auditorías de conformidad.Treball de fi de grau
Challenging Forgets: Identifying and Analyzing Hard-to-Unlearn Data(2025-06-06) Gil Hernández, Sergio; Jacques Junior, Julio C. S.Machine unlearning aims to remove the influence of specific data from trained models to protect privacy and comply with legal standards such as the “right to be forgotten”. However, existing Machine Unlearning research has largely overlooked how the construction of Forget Sets influences unlearning success. This project addresses this gap by systematically designing and evaluating four distinct Forget Set strategies (ranging from random sampling to adversarially motivated similarity) using a ResNet-18 classifier trained on the CIFAR-10 dataset. Two unlearning techniques, basic fine-tuning and fine-tuning with final-layer perturbation, are applied. To rigorously assess performance, this study defines and applies multiple evaluation metrics: Forgetting (how effectively a model erases targeted data), Utility (how well it retains performance on retained data), and a composite metric that balances both. The results reveal how Forget Set composition critically affects the effectiveness of Machine Unlearning strategies, offering new insights for future research and development.Treball de fi de grau
Event AI: Ddesenvolupament d'una plataforma web amb assistent intel·ligent per a l'organització d'esdeveniments(2025-06-11) Ferrer Ripoll, Daniel; Clapés i Sintes, AlbertEste Trabajo de Final de Grado presenta EVENT AI, una plataforma web que revoluciona la organización de eventos mediante la integración de inteligencia artificial. La solución desarrollada conecta organizadores y proveedores en un ecosistema digital que optimiza la gestión de eventos desde su concepción hasta su ejecución. El desarrollo se ha centrado en la implementación de un Producto Mı́nimo Viable (MVP) inspirado en EventstuR, una empresa emergente e innovadora que busca revolucionar el mundo de los eventos. La arquitectura del sistema implementa un frontend intuitivo y responsive, un backend robusto y escalable, y un asistente inteligente que procesa y analiza la información proporcionada para ofrecer un evento a la medida. A pesar de ser un producto mı́nimo viable, los resultados demuestran cómo la plataforma mejora la eficiencia en la organización de eventos, facilitando la comunicación entre organizadores y proveedores, y optimizando los procesos de gestión, reflejando el gran potencial que tiene.Treball de fi de grau
Implementación de un sistema de videovigilancia con ESP32-CAM(2025-06-10) Ferreira Paredes, Eric; López de Miguel, ManuelEste Trabajo de Fin de Grado describe el desarrollo de un sistema de videovigilancia distribuido empleando microcontroladores ESP32-CAM. El sistema permite capturar y transmitir imágenes en tiempo real mediante el protocolo MQTT, detectando movimientos y notificando automáticamente a los usuarios a través de Telegram. Todo el procesamiento se realiza de manera local, sin depender de servicios en la nube, lo que garantiza la privacidad del usuario. Se ha implementado una aplicación de escritorio para gestionar y visualizar múltiples cámaras simultáneamente, y se ha desarrollado un simulador que permite validar el sistema sin necesidad de dispositivos fı́sicos. El proyecto demuestra que es posible construir soluciones de vigilancia económicas, escalables y respetuosas con la privacidad.Treball de fi de grau
F1 race simulator(2025-06-03) Díez Vidueira, David; Seguí Mesquida, SantiThis thesis presents the design and implementation of a real-time Formula 1 strategy simulator, built on state-of-the-art Transformer architectures, to enable dynamic, data-driven decision-making during a Grand Prix. The project explores how Transformer models, originally developed for language processing, can be adapted to predict and optimize race strategies using sequential motorsport data. The simulator relies on two specialized models: the PitStopTransformer, which predicts the optimal lap to pit, and the CompoundTransformer, which selects the most appropriate tyre compound. Both models are based on the Transformer architecture, incorporating multi-head attention, positional encoding and feed-forward layers to capture complex temporal patterns and race dynamics. Data is sourced from Fast F1 for historical records and Open F1 for real-time telemetry. Lap-by-lap features such as laps times, gaps, weather and strategy phase are processed through a PostgreSQL database and structured into sequences for TensorFlow pipelines. Live deployment confirms the system’s ability to generate accurate, low-latency predictions during evolving race scenarios. The simulator adapts to events like tyre degradation or Safety Cars, offering strategic insights as conditions change. By combining mathematical rigor with cutting-edge architecture, this work delivers a scalable tool for real-time race strategy, bridging theoretical machine learning and applied motorsport analytics.Treball de fi de grau
Desenvolupament d’una Plataforma SaaS Autoescalable i Automatitzada amb Arquitectura Kubernetes(2025-06-10) Cirera Bosch, Arnau; Escalera Guerrero, SergioAquest projecte s'ha centrat en el desenvolupament d'una plataforma SaaS (Software as a Service) escalable i modular, utilitzant Kubernetes com a base per gestionar entorns personalitzats per a cada client. L'objectiu ha estat crear una solució flexible que permetés desplegar entorns independents per a cada usuari, garantint la seguretat i l'optimització dels recursos de manera automàtica i eficient. S'ha dissenyat una arquitectura que permet la creació d’entorns aïllats per als clients, assegurant la independència de les dades i serveis. Kubernetes ha estat l'eina clau per garantir l’escalabilitat automàtica de la infraestructura, adaptant-se a la demanda del sistema en temps real. El projecte ha inclòs tres casos d’ús concrets: 1. Universitat: Creació d’entorns de desenvolupament aïllats per als estudiants durant exàmens pràctics, garantint la seguretat i rendiment en moments de càrrega elevada. 2. Hospital: Aïllament de dades i serveis entre diversos hospitals en una única plataforma, per complir amb normatives de privacitat i seguretat. 3. Startup de contingut multimèdia: Gestió de trànsit massiu durant el llançament de contingut popular, assegurant una alta disponibilitat i un rendiment òptim a nivell global. Els resultats obtinguts han mostrat que Kubernetes és una solució potent per desenvolupar sistemes autoescalables, modulars i personalitzats, amb un control eficient dels recursos. Aquest projecte ha destacat la capacitat d’adaptar-se a necessitats específiques i ha obert la porta a futurs desenvolupaments més complexos en entorns SaaS.Treball de fi de grau
Anàlisi de la configuració espacial en tasques col·laboratives simètriques a VR(2025-06-10) Chuan Lleonart, Carlos; Rodríguez Santiago, InmaculadaAquest projecte s’ha centrat en l’estudi de com la configuració espacial afecta la col·laboració multiusuari en entorns de realitat virtual. S’ha desenvolupat una aplicació on dos usuaris solucionen un puzle de forma col·laborativa, amb tres distribucions espacials diferents, per analitzar l’impacte en la coordinació, comunicació, càrrega cognitiva i satisfacció. S’ha utilitzat Photon per sincronitzar en temps real i OpenXR per gestionar el moviment i la interacció amb dispositius VR com Pico 4 i Meta Quest 3, oferint una experiència coherent i immersiva amb avatars que representen els usuaris a la sala. Mitjançant la recollida de dades objectives i subjectives, s’han validat hipòtesis que indiquen que la configuració en “U”, que facilita la visibilitat i la col·laboració directa, millora el rendiment i la satisfacció dels usuaris. Aquest treball aporta una base sòlida per al disseny d’entorns VR col·laboratius i obre camí a futures ampliacions en complexitat i anàlisi.Treball de fi de grau
Desarrollo de una plataforma software para la adquisición y control de sensores de gases(2025-06) Chamarro López, Pau; López de Miguel, ManuelEste trabajo se centra en el desarrollo de una aplicación software destinada al control y gestión de una estación experimental de medida de gases, recientemente instalada en el Departamento de Ingeniería Electrónica y Biomédica de la Universidad de Barcelona. Esta estación permite analizar, en condiciones controladas, el comportamiento y la respuesta de distintos sensores de gases, fundamentales para estudios medioambientales. El principal objetivo del proyecto consiste en desarrollar una herramienta intuitiva y flexible que facilite al investigador la adquisición de datos, el control de dispositivos físicos y la automatización de experimentos con diferentes combinaciones gaseosas. Para ello, se ha desarrollado una plataforma en Python basada en el patrón arquitectónico Modelo-Vista-Controlador (MVC), lo que garantiza una estructura modular y escalable. Esta estación representa una mejora significativa respecto a soluciones anteriores, tanto en términos de la arquitectura del software como de funcionalidad operativa, lo cual proporciona una base sólida para futuras investigaciones y estudio de nuevos materiales para la detección de gases. En definitiva, esta estación experimental se configura como una herramienta estratégica para avanzar en el conocimiento sobre sensores y el análisis de emisiones gaseosas en entornos controlados.Treball de fi de grau
Clasificación de densidad mamaria utilizando Aprendizaje Profundo(2025-06-10) Cantero López, Alejandro; Igual Muñoz, LauraLa densidad mamaria es un factor clínico relevante en la detección del cáncer de mama, ya que influye tanto en la dificultad de identificar lesiones en las mamografías como en el riesgo asociado al desarrollo de esta enfermedad. Una mayor densidad implica un aumento tanto en la complejidad del diagnóstico por imagen como en la probabilidad de padecer cáncer mamario. En los últimos años, el avance tecnológico ha permitido integrar herramientas de inteligencia artificial en el ámbito médico, con el objetivo de mejorar la precisión diagnóstica y apoyar la labor de los profesionales de la salud. En este contexto, el aprendizaje automático, y en particular las redes neuronales convolucionales, han demostrado ser especialmente eficaces en tareas de análisis de imágenes médicas. Este trabajo tiene como objetivo desarrollar un modelo de aprendizaje automático capaz de clasificar mamografías según su densidad mamaria. Para ello, se ha implementado una red neuronal convolucional basada en la arquitectura DenseNet-121, utilizando el lenguaje de programación Python. El modelo ha sido entrenado y evaluado empleando dos bases de datos públicas de mamografías, con el fin de analizar el comportamiento en una tarea de clasificación multiclase que presenta variabilidades técnicas y subjetividad clínica.Treball de fi de grau
Radiomics-based analysis of contrast-enhanced and digital mammography for breast cancer classsification(2025-06-10) Calderón Estébanez, Júlia; Díaz, OliverContrast-Enhanced Spectral Mammography (CESM) is an advanced imaging modality that enhances breast cancer detection by combining conventional digital mammography (DM) with CESM obtained through intravenous contrast administration. This dual approach provides both morphological and functional information, improving lesion visibility, particularly in patients with dense breast tissue. Radiomics, a rapidly evolving field in medical imaging, allows the extraction of high-dimensional quantitative features from medical images, capturing information about tumour phenotype, texture, and heterogeneity that may not be visually apparent. This thesis investigates the application of radiomics analysis to CESM images with the aim of improving breast cancer classification. A key focus is on comparing the diagnostic performance of radiomics features derived separately from CESM and DM images, as well as evaluating the added value of combining both sets of features. Radiomics features are extracted and analysed using statistical and traditional machine learning techniques to assess their effectiveness in distinguishing between benign and malignant lesions. Furthermore, the study explores the development of predictive models based on these features and identifies the most relevant biomarkers for tumour classification. By systematically evaluating radiomics features derived from CESM, DM, and their combination, this research aims to determine the most effective imaging strategy for accurate breast cancer classification. The findings may support more informed clinical decision-making and contribute to the advancement of personalized diagnostic approaches in breast cancer care. Results show that models based on CESM images consistently outperformed those based on DM and combined data, confirming the hypothesis that contrast-enhanced imaging yields more informative radiomic features for tumour classification.Treball de fi de grau
Desarrollo de un Bot de Trading de Criptomonedas basado en Análisis Técnico(2025-06-10) Cabrera Marin, Marc; Urruticoechea, EduardoEste trabajo detalla el desarrollo de un bot de trading de criptomonedas basado en análisis técnico. El bot interactúa con los exchanges Binance [1] y Bitfinex [2], utilizando la biblioteca CCXT para la conectividad con Binance y la funcionalidad de paper trading de Bitfinex para simulación con interfaz gráfica. Las funcionalidades clave incluyen una interfaz gráfica de usuario, registro de logs, gestión de transacciones, operaciones básicas de compra/venta, órdenes stop-loss y take-profit, seguimiento del PnL global y por estrategia, y gráficos de velas con doble media móvil simple (SMA). El bot opera principalmente con los pares ETH/BTC y USD-T/USD, empleando una estrategia de cruce de SMAs [3] para identificar tendencias alcistas o bajistas y automatizar las decisiones de trading, buscando maximizar la rentabilidad gestionando el riesgo. La arquitectura del sistema está compuesta por múltiples módulos especializados que garantizan la modularidad y mantenibilidad del código. El módulo principal (‘main.py‘) actúa como controlador central y gestiona la interfaz de usuario moderna desarrollada con Tkinter, mientras que ‘conexion.py‘ se encarga de la comunicación con los distintos exchanges mediante APIs REST. La gestión de la cartera (‘cartera.py‘) proporciona funciones para monitorizar y administrar los activos, mientras que el sistema de transacciones (‘transacciones.py‘) registra y procesa todas las operaciones de compra y venta. La interfaz de usuario presenta un diseño moderno e intuitivo organizado en pestañas que incluye un panel principal con indicadores de estado en tiempo real, una sección de trading con órdenes avanzadas, un portafolio detallado con gráficos de distribución de activos, gestión de estrategias automatizadas y un historial completo de transacciones. El sistema incorpora indicadores visuales de estado que muestran la conectividad con los exchanges, el saldo disponible, el par seleccionado y el estado general del bot. El motor de estrategias implementa algoritmos de cruce de medias móviles con periodos configurables, ermitiendo la detección automática de señales de entrada y salida. La funcionalidad de stop-loss y take-profit proporciona gestión automatizada del riesgo, mientras que el sistema PnL (‘pnltracker.py‘) calcula y monitoriza los beneficios y pérdidas tanto a nivel global como por estrategia individual. Las capacidades gráficas (‘chart.py‘) utilizan mplfinance para generar visualizaciones de velas japonesas con indicadores técnicos superpuestos, permitiendo el análisis visual de tendencias y patrones del mercado. El sistema soporta múltiples marcos temporales desde 1 minuto hasta 1 día, adaptándose a diferentes estilos de trading. La implementación incorpora mecanismos robustos de gestión de errores y un sistema de logging extensivo para facilitar la depuración y monitorización del sistema. El bot está diseñado para operar de manera autónoma con supervisión mínima, ejecutando estrategias predefinidas y notificando al usuario sobre eventos importantes. La aplicación representa una solución completa para traders que buscan automatizar sus estrategias de trading en criptomonedas, combinando la potencia del análisis técnico con una interfaz accesible y funcionalidades avanzadas de gestión de riesgos.