Marco Dinarelli* et Yoann Dupont**
*Lattice (UMR 8094), CNRS, ENS Paris, Université Sorbonne Nouvelle - Paris 3 PSL Research University, USPC (Université Sorbonne Paris Cité) 1 rue Maurice Arnoux, 92120 Montrouge, France
**Expert System France, 207 rue de Bercy, 75012 Paris
Résumé
Les réseaux neuronaux récurrents (RNN) se sont montrés très efficaces dans plusieurs tâches de traitement automatique des langues. Cependant, leur capacité à modéliser l’étiquetage de séquences reste limitée. Cette limitation a conduit la recherche vers la combinaison des RNN avec des modèles déjà utilisés avec succès dans ce contexte, comme les CRF. Dans cet article, nous étudions une solution plus simple mais tout aussi efficace : une évolution du RNN de Jordan dans lequel les étiquettes prédites sont réinjectées comme entrées dans le réseau et converties en plongements, de la même façon que les mots. Nous comparons cette variante de RNN avec tous les autres modèles existants : Elman, Jordan, LSTM et GRU, sur deux tâches de compréhension de la parole. Les résultats montrent que la nouvelle variante, plus complexe que les modèles d’Elman et Jordan, mais bien moins que LSTM et GRU, est non seulement plus efficace qu’eux, mais qu’elle fait aussi jeu égal avec des modèles CRF plus sophistiqués.
Paru dans
Document
Rank
1