Hoe de computerlinguïstiek gered werd door de taalkunde en omgekeerd

  • Walter Daelemans

Samenvatting

Hoewel de computertaalkunde is ontstaan als methode om taalkundige
theorieën te testen, ging ze al snel haar eigen weg, gebaseerd op
statistische methodes en zelflerende systemen. Tegenwoordig, met de
“revolutie” van diepe neurale netwerken, met name de “pre-trained”
taalmodellen, lijkt de taalkunde nog maar weinig relevant voor de
computertaalkunde. In deze commentaar argumenteer ik dat dit een
onterechte conclusie is: de kracht van deze neurale modellen is gebaseerd
op een taalkundige theorie en omgekeerd kunnen de computermodellen
een nieuwe impuls voor de taalkunde bieden.

Although Computational Linguistics originated as a method for the
evaluation of linguistic theories, it soon took a different path, guided
by statistical and machine learning methods. With the current ‘revolution’
of deep neural networks, especially the pre-trained language
models, linguistics doesn’t seem relevant anymore for computational
linguistics. In this comment, I argue that this conclusion is incorrect:
the power of these neural models is based on a linguistic theory, and
vice versa, current computational models can provide a new impulse
to linguistics.

Gepubliceerd
2021-08-18