[BibTeX] [RIS]
From n-gram to Attention: How Model Architectures Learn and Propagate Bias in Language Modelin
Art der Publikation: Artikel in einem Konferenzbericht
Zitat: kabir:2025b
Buchtitel: Findings of the Association for Computational Linguistics: EMNLP 2025
Jahr: 2025
Seiten: 18478–18498
URL: https://aclanthology.org/2025....
DOI: 10.18653/v1/2025.findings-emnlp.1003
Schlagworte:
Autoren Kabir, M.
Tahsin, T.
Ananiadou, S.
Hinzugefügt von: [PRT]
Gesamtbewertung: 0
Anhänge
    Notizen
      Themen