Improving neural machine translation of languages with little data and rich morphology
Promotie: | Dhr. P. (Prajit) Dhar |
Wanneer: | 18 januari 2024 |
Aanvang: | 16:15 |
Promotors: | A. (Arianna) Bisazza, PhD, prof. dr. G.J.M. (Gertjan) van Noord |
Waar: | Academiegebouw RUG |
Faculteit: | Letteren |
Meertalige neurale netwerkmodellen kunnen grammaticale kennis overdragen tussen talen
Sommige talen krijgen onvoldoende aandacht in onderzoek naar Natural Language Processing (NLP), vooral talen met weinig beschikbare informatie en ingewikkelde woordstructuren. Meertalige neurale taalmodellen hebben potentie kennis over te dragen tussen talen. Uit onderzoek van promovendus Prajit Dhar blijkt dat meertalige neurale netwerkmodellen grammaticale kennis over kunnen dragen tussen talen, mits er semantische aanwijzingen zijn.
Dhar doet in zijn proefschrift onderzoek naar verschillende modellen en technieken op het gebied van Neural Machine Translation en analyseert deze modellen aan de hand van meerdere minder bekende talen. Zo blijkt dat sommige technieken beter geschikt zijn voor specifieke talen dan andere, zoals bijvoorbeeld PT-Inflect en back-translation voor het Litouws.
Dhar benadrukt dat vooruitgang in NLP-onderzoek niet alleen kan zorgen voor technologische verbeteringen, maar er ook voor kan zorgen dat diverse gemeenschappen in hun eigen taal kunnen deelnemen aan wereldwijde gesprekken. Met zijn proefschrift wil hij bijdragen aan vooruitgang op beide gebieden.