Explicabilitat de models d’Aprenentatge Automàtic mitjançant valors SHAP

dc.contributor.advisorPujol Vila, Oriol
dc.contributor.advisorBallestero Ribó, Marc
dc.contributor.authorAsins Hidalgo, Raül
dc.date.accessioned2026-03-24T13:57:31Z
dc.date.available2026-03-24T13:57:31Z
dc.date.issued2026-01-15
dc.descriptionTreballs Finals de Grau d'Enginyeria Informàtica, Facultat de Matemàtiques, Universitat de Barcelona, Any: 2026, Director: Oriol Pujol Vilà i Marc Ballestero Ribó
dc.description.abstract[en] This project analyses the behaviour of a machine learning regression model through explainability techniques based on SHAP (SHapley Additive exPlanations). The main objective is not only to achieve accurate predictions, but also to understand how and why the model makes its decisions. The work is structured into two main parts. The first, of a theoretical nature, introduces the fundamentals of machine learning applied to regression problems, as well as the concept of Shapley values, their origin in game theory, and their adaptation to model explainability through the SHAP framework. The second part focuses on the practical implementation of the methodology. It describes the data preprocessing pipeline, model training, and evaluation process. Using a Random Forest Regressor and the SHAP Python library, the influence of different features on house price predictions is analysed from both global and local perspectives. The results show that the model relies on features that are consistent with domain knowledge and that explainability techniques provide clear and transparent insights into the model’s decision-making process. This improves the interpretability, reliability, and trustworthiness of the predictive system. [ca] En aquest projecte s’analitza el comportament d’un model d’aprenentatge automàtic de regressió mitjançant tècniques d’explicabilitat basades en SHAP (SHapley Additive exPlanations). L’objectiu principal no és únicament obtenir bones prediccions, sinó comprendre com i per què el model pren les seves decisions. El treball es divideix en dos grans blocs. En el primer, de caràcter teòric, es presenten els fonaments de l’aprenentatge automàtic aplicat a problemes de regressió, així com el concepte de valors de Shapley, el seu origen en la teoria de jocs i la seva adaptació al camp de l’explicabilitat de models mitjançant SHAP. En el segon bloc, de caràcter pràctic, es descriu el procés complet de tractament del conjunt de dades, entrenament del model i anàlisi dels resultats. A partir de l’ús d’un model Random Forest Regressor i de la llibreria SHAP en Python, s’estudia com les diferents variables influeixen en la predicció del preu dels habitatges, tant des d’una perspectiva global com local. Els resultats obtinguts mostren que el model basa les seves prediccions en característiques coherents amb el domini del problema i que les tècniques d’explicabilitat permeten interpretar de manera clara i transparent el seu comportament, reforçant la fiabilitat i la comprensió del sistema predictiu. [es] En este proyecto se analiza el comportamiento de un modelo de aprendizaje automático de regresión mediante técnicas de explicabilidad basadas en SHAP (SHapley Additive exPlanations). El objetivo principal no es únicamente obtener buenas predicciones, sino comprender cómo y por qué el modelo toma sus decisiones. El trabajo se divide en dos grandes bloques. En el primero, de carácter teórico, se presentan los fundamentos del aprendizaje automático aplicado a problemas de regresión, así como el concepto de valores de Shapley, su origen en la teoría de juegos y su adaptación al campo de la explicabilidad de modelos mediante SHAP. En el segundo bloque, de carácter práctico, se describe el proceso completo de tratamiento del conjunto de datos, entrenamiento del modelo y análisis de los resultados. A partir del uso de un modelo Random Forest Regressor y de la librería SHAP en Python, se estudia cómo las diferentes variables influyen en la predicción del precio de las viviendas, tanto desde una perspectiva global como local. Los resultados obtenidos muestran que el modelo basa sus predicciones en características coherentes con el dominio del problema y que las técnicas de explicabilidad permiten interpretar de manera clara y transparente su comportamiento, reforzando la fiabilidad y la comprensión del sistema predictivo.
dc.format.extent43 p.
dc.format.mimetypeapplication/pdf
dc.identifier.urihttps://hdl.handle.net/2445/228469
dc.language.isocat
dc.rightsmemòria: cc by-nc-nd (c) Raül Asins Hidalgo, 2026
dc.rightscodi: GPL (c) Raül Asins Hidalgo, 2026
dc.rights.accessRightsinfo:eu-repo/semantics/openAccess
dc.rights.urihttps://creativecommons.org/licenses/by-nc-nd/4.0/deed.ca
dc.rights.urihttp://www.gnu.org/licenses/gpl-3.0.ca.html
dc.sourceTreballs Finals de Grau (TFG) - Enginyeria Informàtica
dc.subject.classificationAprenentatge automàtic
dc.subject.classificationIntel·ligència artificial
dc.subject.classificationAnàlisi de regressió
dc.subject.classificationTeoria de jocs
dc.subject.classificationProgramari
dc.subject.classificationTreballs de fi de grau
dc.subject.otherMachine learning
dc.subject.otherArtificial intelligence
dc.subject.otherRegression analysis
dc.subject.otherGame theory
dc.subject.otherComputer software
dc.subject.otherBachelor's theses
dc.titleExplicabilitat de models d’Aprenentatge Automàtic mitjançant valors SHAP
dc.typeinfo:eu-repo/semantics/bachelorThesis

Fitxers

Paquet original

Mostrant 1 - 2 de 2
Carregant...
Miniatura
Nom:
TFG_Asins_Hidalgo_Raul.pdf
Mida:
1.25 MB
Format:
Adobe Portable Document Format
Carregant...
Miniatura
Nom:
codi.zip
Mida:
3.36 MB
Format:
ZIP file