DL - TAL Présentiel
Dernière mise à jour : 01/08/2025
Description
Ces dernières décennies, les réseaux de neurones artificiels et plus généralement le Deep Learning ont renouvelé les perspectives de recherche en traitement automatique des langues (TAL). La plupart des applications en TAL nécessitent de modéliser des données structurées qui se caractérisent par des distributions particulières, parcimonieuses et avec des espaces de réalisation de grande dimension.
Dans ce contexte, les réseaux de neurones et récemment les grands modèles de langue (LLM) ont permis des avancées importantes en introduisant la notion de représentations continues pour le TAL et ce pour de nombreuses tâches comme par exemple l'analyse syntaxique, la reconnaissance d'entités nommées, la classification de documents, la reconnaissance automatique de la parole et la traduction automatique. Ces progrès se sont amplifiés dès lors que les modèles neuronaux ont dépassé le cadre de l'apprentissage de représentation pour évoluer vers des architectures de plus en plus profondes, permettant de modéliser de bout en bout des tâches d'inférence complexes.
- Rapide survol des architectures feed-forward permettant de poser les notations (inférence et apprentissage, fonctions d'activation, optimisation, épuisement du gradient, régularisation)
- Modélisation de séquences avec des réseaux de neurones (modèles n-grammes, modèles récurrents, modèles convolutionnels, architectures attentionnelles)
- Architectures logicielles pour l'apprentissage profond
- Modèles à grand vocabulaire : hiérarchies et unités sous-lexicales
- LLM pré-entrainés et apprentissage par transfert (Bert, Llama)
- Exemples d'applications : reconnaissance d'entités nommées, traduction automatique
La mise en oeuvre des méthodes se fera à l'aide des bibliothèques Pytorch et Transformers de Hugging Face, avec comme applications les modèles de langues et la reconnaissance d'entités nommées.
Objectifs de la formation
- Connaître la théorie et la pratique des réseaux profonds (deep learning) appliqués au traitement automatique des langues
- Maîtriser les enjeux à la fois théoriques et opérationnels afin de comprendre le potentiel des réseaux de neurones profonds ainsi que leurs limites dans le cadre du traitement automatique des langues
- Savoir mettre en oeuvre des modèles récents avec les bibliothèques Pytorch et Transformers de HuggingFace
Public visé
Prérequis
- Connaissances de base en apprentissage automatique, probabilités, statistiques
- Connaissance de Python
Modalités pédagogiques
Modalités d'évaluation et de suivi
Profil du / des Formateur(s)
Thomas LAVERGNE, Maître de conférences, UMR 9015