Ny sprogmodel er fintunet på fem skandinaviske sprog, og det fungerer overraskende godt

Foto : ABB Photo, Bigstock

Ny sprogmodel er fintunet på fem skandinaviske sprog, og det fungerer overraskende godt

Den danske ML-forsker Dan Saattrup Nielsen prøvede for sjov at fintune en NER-model på fem sprog. Resultater er en model, der klarer sig betydeligt bedre på alle fem sprog, end den tilsvarende model fintunet på hvert sprog alene.   
En ny sprogmodel til Named Entity Recognition (NER) har formået at levere state-of-the-art resultater på ikke bare dansk - men også fire andre skandinaviske sprog. 
Få fuld adgang til DataTech?
DataTech skriver til dig, der arbejder professionelt med data og analytics. Vi giver dig inspirerende cases, nyheder og debat om alt fra Machine Learning-modeller til dataetik.
Prøv DataTech gratis

DataTech giver dig ny viden, cases og erfaringer med at lykkes med AI og data science i praksis. Få 3 ugers gratis og uforpligtende prøveabonnement

Klik her
Dan Saattrup Nielsen
Dan Saattrup Nielsen
Illustration: Dan Saattrup Nielsen

Dan Saattrup Nielsen har en ph.d. i matematik fra Bristol University, hvor han nu arbejder som Research Associate in Machine Learning.