Filtrer vos résultats
- 4
- 1
- 5
- 5
- 2
- 2
- 1
- 4
- 1
- 4
- 4
- 2
- 5
- 4
- 4
- 3
- 1
- 1
- 1
5 résultats
|
|
triés par
|
|
Re-train or train from scratch? Comparing pre-training strategies of BERT in the medical domainLREC 2022 - Language Resources and Evaluation Conference, Jun 2022, Marseille, France. pp.2626-2633
Communication dans un congrès
hal-03803880v1
|
||
|
Embedding Strategies for Specialized Domains: Application to Clinical Entity RecognitionProceedings of the 57th Annual Meeting of the Association for Computational Linguistics: Student Research Workshop, Jul 2019, Florence, France. pp.295-301, ⟨10.18653/v1/P19-2041⟩
Communication dans un congrès
hal-02860947v1
|
||
|
Ré-entraîner ou entraîner soi-même ? Stratégies de pré-entraînement de BERT en domaine médical6e conférence conjointe Journées d'Études sur la Parole (JEP, 33e édition), Traitement Automatique des Langues Naturelles (TALN, 27e édition), Rencontre des Étudiants Chercheurs en Informatique pour le Traitement Automatique des Langues (RÉCITAL, 22e édition). Volume 3 : Rencontre des Étudiants Chercheurs en Informatique pour le TAL, Jun 2020, Nancy, France. pp.29-42
Communication dans un congrès
hal-02786184v3
|
||
|
Specializing Static and Contextual Embeddings in the Medical Domain Using Knowledge Graphs: Let's Keep It SimpleInternational Workshop on Health Text Mining and Information Analysis (LOUHI), Dec 2022, Abu Dhabi (online), United Arab Emirates
Communication dans un congrès
hal-04046746v1
|
||
|
CharacterBERT: Reconciling ELMo and BERT for Word-Level Open-Vocabulary Representations From CharactersInternational Conference on Computational Linguistics, Dec 2020, Barcelona (on line), Spain. pp.6903-6915
Communication dans un congrès
hal-03100665v1
|