Latest Development in the FoTran Project – Scaling Up Language Coverage in Neural Machine Translation Using Distributed Training with Language-Specific Components

Tutkimustuotos: Artikkeli kirjassa/raportissa/konferenssijulkaisussaKonferenssiartikkeliTieteellinenvertaisarvioitu

Abstrakti

We give an update on the Found in Translation (FoTran) project, focusing on the study of emerging language-agnostic representations from neural machine translation (NMT). We describe our attention-bridge model, a modular NMT model which connects language-specific components through a shared network layer. Our latest implementation supports distributed training over many nodes and GPUs in order to substantially scale up the number of languages that can be included in a modern neural translation architecture.
Alkuperäiskielienglanti
OtsikkoProceedings of the 23rd Annual Conference of the European Association for Machine Translation
ToimittajatHelana Moniz, Lieve Macken, Andrew Rufener, et al.
Sivumäärä2
JulkaisupaikkaGeneva
KustantajaEuropean Association for Machine Translation
Julkaisupäivä2022
Sivut311-312
ISBN (elektroninen)9789464597622
TilaJulkaistu - 2022
OKM-julkaisutyyppiA4 Artikkeli konferenssijulkaisuussa
TapahtumaAnnual Conference of the European Association for Machine Translation - Ghent, Belgia
Kesto: 1 kesäk. 20223 kesäk. 2022
Konferenssinumero: 23
https://eamt2022.com

Tieteenalat

  • 6121 Kielitieteet
  • 113 Tietojenkäsittely- ja informaatiotieteet

Siteeraa tätä