LT@Helsinki at SemEval-2020 Task 12: Multilingual or language-specific BERT?

Marc Pàmies, Emily Öhman, Kaisla Kajava, Jörg Tiedemann

Tutkimustuotos: Artikkeli kirjassa/raportissa/konferenssijulkaisussaKonferenssiartikkeliTieteellinenvertaisarvioitu

Abstrakti

This paper presents the different models submitted by the LT@Helsinki team for the SemEval2020 Shared Task 12. Our team participated in sub-tasks A and C; titled offensive language identification and offense target identification, respectively. In both cases we used the so called Bidirectional Encoder Representation from Transformer (BERT), a model pre-trained by Google and fine-tuned by us on the OLID dataset. The results show that offensive tweet classification is one of several language-based tasks where BERT can achieve state-of-the-art results.
Alkuperäiskielienglanti
OtsikkoProceedings of the Fourteenth Workshop on Semantic Evaluation
ToimittajatAurelie Herbelot, Xiaodan Zhu, Alexis Palmer, Nathan Schneider, Jonathan May, Ekaterina Shutova
Sivumäärä7
JulkaisupaikkaBarcelona
KustantajaInternational Committee for Computational Linguistics
Julkaisupäivä2020
Sivut1569-1575
ISBN (elektroninen)978-1-952148-31-6
TilaJulkaistu - 2020
OKM-julkaisutyyppiA4 Artikkeli konferenssijulkaisuussa
TapahtumaInternational Workshop on Semantic Evaluation - [Online event], Barcelona, Espanja
Kesto: 12 jouluk. 202013 jouluk. 2020
Konferenssinumero: 14
http://alt.qcri.org/semeval2020/

Tieteenalat

  • 113 Tietojenkäsittely- ja informaatiotieteet
  • 6121 Kielitieteet

Siteeraa tätä