Revue TAL : Numéro spécial Apprentissage profond pour le traitement automatique des langues

Ces dernières décennies, les réseaux de neurones artificiels et plus généralement l'apprentissage profond de ces modèles (deep-learning) ont renouvelé les perspectives de recherche en traitement automatique des langues (TAL). La plupart des applications en TAL (e.g analyse syntaxique et sémantique des textes et du discours, résumé et traduction automatique, ...) nécessitent de modéliser des données structurées (séquences, arbres, graphes, ...) qui se caractérisent par des distributions particulières, parcimonieuses et avec des espaces de réalisations de grande dimension. Dans ce contexte, les réseaux de neurones ont permis des avancées importantes en ce qui concerne les représentations continues pour le TAL et ce pour de nombreuses tâches comme par exemple l'analyse syntaxique, la classification de document, la reconnaissance automatique de la parole et la traduction automatique. Ces progrès se sont amplifiés dès lors que les modèles neuronaux ont dépassé le cadre de l'apprentissage de représentation pour évoluer vers des architectures de plus en plus profondes, permettant de modéliser de bout en bout des tâches d'inférence complexes.

Néanmoins, ces évolutions récentes posent de nombreuses questions scientifiques. Si les performances obtenues par les modèles neuronaux impressionnent souvent, les architectures déployées sont complexes à concevoir et à optimiser. La vision de ces modèles comme une boîte noire est problématique tant l'interprétation des résultats et la compréhension de ce qui est appris restent obscures.

L'objectif de ce numéro numéro spécial de la revue TAL (http://www.atala.org/-Revue-TAL) est de proposer une vue d’ensemble des recherches actuelles portant sur le deep-learning pour le TAL, d'en montrer à la fois les promesses, les limites et en quoi les représentations obtenues diffèrent ou au contraire ressemblent à d’autres représentations plus anciennes en TAL.

Les propositions de communications pourront notamment porter sur les thèmes suivants :

  • application des réseaux neuronaux au TAL et à la linguistique
  • les architectures neuronales pour le TAL
  • apprentissage de représentation, des caractères aux documents en passant par les mots
  • interprétation et explication des représentations apprises
  • inférence structurée et modèle de génération pour le TAL
  • apprentissage et optimisation dans le cas spécifique du TAL


Les soumissions doivent correspondre à des articles complets non déjà publiés ailleurs et portant explicitement sur des applications du Deep-Learning au TAL. De plus, il est important que les articles soumis soient accessibles à la communauté TAL. Donc si des aspects méthodologiques liés aux réseaux de neurones sont abordés, il est important qu'un effort pédagogique soit fait afin de les rendre accessibles à la communauté.

 

 

 

 

   

A NOTER

DATES IMPORTANTES

  • Date limite de soumission: 31 mars 2018
  • Notification aux auteurs, première relecture : 31 mai 2018
  • Notification aux auteurs, seconde relecture : 16 juillet 2018
  • Publication : octobre 2018

LA REVUE

La revue TAL (Traitement Automatique des Langues) est une revue internationale éditée depuis 1960 par l’ATALA (Association pour le Traitement Automatique des Langues) avec le concours du CNRS. Elle est maintenant publiée en format électronique, avec accès gratuit immédiat aux articles publiés, et impression annuelle à la demande. Cela ne change aucunement son processus de relecture et de sélection.

 

Personnes connectées : 1