Carregant...
Tipus de document
Treball de fi de màsterData de publicació
Llicència de publicació
Si us plau utilitzeu sempre aquest identificador per citar o enllaçar aquest document: https://hdl.handle.net/2445/215077
Attention mechanisms in transformers: a new formula with mathematical foundations and enhanced interpretability
Títol de la revista
Autors
Director/Tutor
ISSN de la revista
Títol del volum
Recurs relacionat
Resum
[en] Large Language Models (LLMs) are AI systems capable of understanding and generating human language by processing vast amounts of text data. In recent years, specifically from 2017, the use of LLMs significantly increased thanks to the introduction of the Transformer architecture.
Descripció
Treballs finals del Màster de Fonaments de Ciència de Dades, Facultat de matemàtiques, Universitat de Barcelona. Curs: 2023-2024. Tutor: Arturo Vieiro Yanes i Oriol Pujol Vila
Citació
Citació
CONTI, Eddie. Attention mechanisms in transformers: a new formula with mathematical foundations and enhanced interpretability. [consulta: 29 de gener de 2026]. [Disponible a: https://hdl.handle.net/2445/215077]