Modèles de langue obtenus par l'entraînement de l'architecture ELMo sur les sous-corpus bulgare, catalan, danois, finnois et indonésien du corpus multilingue à large couverture OSCAR (Ortiz Suárez et al., 2019).
Logo par Alix Chagué.
Si vous utilisez ce travail, merci de citer :
@inproceedings{ortiz-suarez-etal-2020-monolingual,
address = {Online},
author = {Ortiz Su{\'a}rez, Pedro Javier and Romary, Laurent and Sagot, Beno{\^\i}t},
title = {A Monolingual Approach to Contextualized Word Embeddings for Mid-Resource Languages},
year = {2020},
booktitle = {Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics},
publisher = {Association for Computational Linguistics},
pages = {1703--1714},
doi = {10.18653/v1/2020.acl-main.156},
url = {https://aclanthology.org/2020.acl-main.156},
hal_url = {https://hal.inria.fr/hal-02863875},
hal_pdf = {https://hal.inria.fr/hal-02863875v2/file/ELMos.pdf},
}