Please use this identifier to cite or link to this item: https://hdl.handle.net/2445/224022
Full metadata record
DC FieldValueLanguage
dc.contributor.authorBoté-Vericad, Juan-José-
dc.contributor.authorSan José, Claudia-
dc.date.accessioned2025-10-31T11:25:46Z-
dc.date.available2025-10-31T11:25:46Z-
dc.date.issued2025-10-10-
dc.identifier.citationSan José, Claudia, Boté-Vericad, Juan-José. 2025. "Cuidado con la brecha: datos de género y sesgo de IA." Zenodo. https://doi.org/10.5281/zenodo.17316182.ca
dc.identifier.urihttps://hdl.handle.net/2445/224022-
dc.descriptionThis is an OER produced within the GEDIS Project – Gender Diversity in Information Science: Challenges in Higher Education.ca
dc.description.abstract[spa] Este Recurso Educativo Abierto (REA) forma parte del proyecto europeo GEDIS – Gender Diversity in Information Science: Challenges in Higher Education, cofinanciado por la Unión Europea. El material aborda la brecha de datos de género en la inteligencia artificial (IA) y sus implicaciones en distintos ámbitos sociales y tecnológicos. A través de un póster y un resumen de evidencias, se presentan los principales tipos de sesgo (representativo, algorítmico, cultural e interseccional), sus causas, casos documentados y estrategias de mitigación. El recurso pretende sensibilizar a profesorado, personal bibliotecario y estudiantado sobre cómo las desigualdades en los datos afectan las decisiones automatizadas, contribuyendo a una IA más justa e inclusiva. Se basa en estudios recientes de organismos internacionales como la UNESCO y en investigaciones académicas relevantes sobre ética y gobernanza de la IA. #GEDIS #SummerSchoolBarcelonaca
dc.description.abstract[eng] This Open Educational Resource (OER) is part of the European GEDIS Project – Gender Diversity in Information Science: Challenges in Higher Education, co-funded by the European Union. The material addresses the gender data gap in artificial intelligence (AI) and its implications across different social and technological fields. Through a poster and a summary of evidence, it presents the main types of bias (representational, algorithmic, cultural, and intersectional), their causes, documented cases, and mitigation strategies. The resource aims to raise awareness among teachers, librarians, and students about how data inequalities affect automated decision-making, contributing to the development of fairer and more inclusive AI. It is based on recent studies from international organisations such as UNESCO and on relevant academic research on AI ethics and governance. #GEDIS #SummerSchoolBarcelonaca
dc.description.sponsorship2024-1-ES01-KA220-HED-000246558ca
dc.format.extent1 p.-
dc.format.mimetypeapplication/pdf-
dc.language.isospaca
dc.rightscc by (c) Juan-José Boté-Vericad et al., 2025ca
dc.rights.urihttp://creativecommons.org/licenses/by/3.0/es/*
dc.sourceOMADO (Objectes i MAterials DOcents)-
dc.subject.classificationBretxa digitalcat
dc.subject.classificationGènerecat
dc.subject.classificationIntel·ligència artificialcat
dc.titleCuidado con la brecha: datos de género y sesgo de IAca
dc.typeinfo:eu-repo/semantics/otherca
dc.identifier.doihttps://doi.org/10.5281/zenodo.17316182-
dc.rights.accessRightsinfo:eu-repo/semantics/openAccess-
Appears in Collections:OMADO (Objectes i MAterials DOcents)

Files in This Item:
File Description SizeFormat 
Mod-Gap-Spanish.pdf143.54 kBAdobe PDFView/Open


This item is licensed under a Creative Commons License Creative Commons