[BibTeX] [RIS]
From n-gram to Attention: How Model Architectures Learn and Propagate Bias in Language Modelin
Tipo de publicação: Inproceedings
Citação: kabir:2025b
Booktitle: Findings of the Association for Computational Linguistics: EMNLP 2025
Ano: 2025
Páginas: 18478–18498
URL: https://aclanthology.org/2025....
DOI: 10.18653/v1/2025.findings-emnlp.1003
Palavras-chave:
Autores Kabir, M.
Tahsin, T.
Ananiadou, S.
Adicionado por: [PRT]
Total mark: 0
Anexos
    Notas
      Tópicos