El CRAI romandrà tancat del 24 de desembre de 2025 al 6 de gener de 2026. La validació de documents es reprendrà a partir del 7 de gener de 2026.
El CRAI permanecerá cerrado del 24 de diciembre de 2025 al 6 de enero de 2026. La validación de documentos se reanudará a partir del 7 de enero de 2026.
From 2025-12-24 to 2026-01-06, the CRAI remain closed and the documents will be validated from 2026-01-07.
 
Carregant...
Miniatura

Tipus de document

Document de treball

Data de publicació

Llicència de publicació

cc-by-nc-nd, (c) De Chiara et al., 2025
Si us plau utilitzeu sempre aquest identificador per citar o enllaçar aquest document: https://hdl.handle.net/2445/224749

Mitigating Generative AI Hallucinations

Títol de la revista

Director/Tutor

ISSN de la revista

Títol del volum

Recurs relacionat

Resum

We theoretically investigate whether AI developers or AI operators should be liable for the harm the AI systems may cause when they hallucinate. We find that the optimal liability framework may vary over time, with the evolution of the AI technology, and that making the AI operators liable can be desirable only if it induces monitoring of the AI systems. We also highlight non-trivial relationships between welfare and reputational concerns, human supervision ability, and the accuracy of the technology. Our results have implications for regulatory design and business strategies.

Citació

Citació

DE CHIARA, Alessandro, MANNA, Ester, SINGH, Shubhranshu. Mitigating Generative AI Hallucinations. _UB Economics – Working Papers_. 2025 E25/492. [consulta: 2 de gener de 2026]. [Disponible a: https://hdl.handle.net/2445/224749]

Exportar metadades

JSON - METS

Compartir registre