Standard-based lexical models for automatically structured dictionnaries
Modèles lexicaux standardisés pour les dictionnaires à structure automatique
par Mohamed KHEMAKHEM sous la direction de Laurent ROMARY
Thèse de doctorat en Informatique. Traitement automatique des langues
ED 386 Sciences Mathematiques de Paris Centre

Soutenue le jeudi 01 octobre 2020 à Université Paris Cité

Sujets
  • Apprentissage automatique
  • Lexicographie -- Informatique
  • Normalisation
  • Text Encoding Initiative (langage de balisage)
  • Traitement automatique du langage naturel

Les thèses de doctorat soutenues à Université Paris Cité sont déposées au format électronique

Consultation de la thèse sur d’autres sites :

TEL (Version intégrale de la thèse (pdf))

Description en anglais
Description en français
Mots clés
Dictionnaires numérisés, Analyse lexicale, Structuration automatique, Modèles lexicaux, Lexical Markup Framework (LMF)
Resumé
Les dictionnaires peuvent être considérés comme le réservoir le plus compréhensible de connaissances humaines, qui contiennent non seulement la description lexicale des mots dans une ou plusieurs langues, mais aussi la conscience commune d'une certaine communauté sur chaque élément de connaissance connu dans une période de temps donnée. Les dictionnaires imprimés sont les principales ressources qui permettent la documentation et le transfert de ces connaissances. Ils existent déjà en grand nombre, et de nouveaux dictionnaires sont continuellement compilés. Cependant, la majorité de ces dictionnaires dans leur version numérique n'est toujours pas structurée en raison de l'absence de méthodes et de techniques évolutives pouvant couvrir le nombre du matériel croissant et sa variété. En outre, les ressources structurées existantes, relativement peu nombreuses, présentent des alternatives d'échange et de recherche limitées, en raison d'un sérieux manque de synchronisation entre leurs schémas de structure. Dans cette thèse, nous abordons la tâche d'analyse des informations lexicales dans les dictionnaires imprimés en construisant des modèles qui permettent leur structuration automatique. La résolution de cette tâche va de pair avec la recherche d'une sortie standardisée de ces modèles afin de garantir une interopérabilité maximale entre les ressources et une facilité d'utilisation pour les tâches en aval. Nous commençons par présenter différentes classifications des ressources dictionnaires pour délimiter les catégories des dictionnaires imprimés sur lesquelles ce travail se focalise. Ensuite, nous définissions la tâche d'analyse en fournissant un aperçu des défis de traitement et une étude de l'état de l'art. Nous présentons par la suite une nouvelle approche basée sur une analyse en cascade de l'information lexicale. Nous décrivons également l'architecture du système résultant, appelé GROBID-Dictionaries, et la méthodologie que nous avons suivie pour rapprocher la conception du système de son applicabilité aux scénarios du monde réel. Ensuite, nous prestons des normes clés pour les ressources lexicales structurées. En outre, nous fournissons une analyse de deux initiatives en cours, TEI-Lex-0 et LMF, qui visent à unifier la modélisation de l'information lexicale dans les dictionnaires imprimés et électroniques. Sur cette base, nous présentons un format de sérialisation conforme aux schémas des deux initiatives de normalisation et qui est assorti à l'approche développée dans notre système d'analyse lexicale. Après avoir présenté les facettes d'analyse et de sérialisation normalisées de nos modèles lexicaux, nous fournissons une étude empirique de leurs performances et de leurs comportements. L'étude est basée sur une configuration spécifique d'apprentissage automatique et sur une série d'expériences menées avec un ensemble sélectionné de dictionnaires variés. Dans cette étude, nous essayons de présenter différentes manières d'ingénierie des caractéristiques et de montrer les points forts et les limites des meilleurs modèles résultants. Nous consacrons également deux séries d'expériences pour explorer l'extensibilité de nos modèles en ce qui concerne les documents traités et la technique d'apprentissage automatique employée. Enfin, nous clôturons cette thèse en présentant les principales conclusions et en ouvrant de nouvelles perspectives pour l'extension de nos investigations dans un certain nombre de directions de recherche pour l'analyse des documents structurés en un ensemble d'entrées.