Carregant...
Miniatura

Tipus de document

Treball de fi de màster

Data de publicació

Llicència de publicació

cc-by-nc-nd (c) Eddie Conti, 2023
Si us plau utilitzeu sempre aquest identificador per citar o enllaçar aquest document: https://hdl.handle.net/2445/215077

Attention mechanisms in transformers: a new formula with mathematical foundations and enhanced interpretability

Títol de la revista

ISSN de la revista

Títol del volum

Recurs relacionat

Resum

[en] Large Language Models (LLMs) are AI systems capable of understanding and generating human language by processing vast amounts of text data. In recent years, specifically from 2017, the use of LLMs significantly increased thanks to the introduction of the Transformer architecture.

Descripció

Treballs finals del Màster de Fonaments de Ciència de Dades, Facultat de matemàtiques, Universitat de Barcelona. Curs: 2023-2024. Tutor: Arturo Vieiro Yanes i Oriol Pujol Vila

Citació

Citació

CONTI, Eddie. Attention mechanisms in transformers: a new formula with mathematical foundations and enhanced interpretability. [consulta: 29 de gener de 2026]. [Disponible a: https://hdl.handle.net/2445/215077]

Exportar metadades

JSON - METS

Compartir registre