Primer: Google-forskere finder ny transformer-variant med evolution

Foto : anatolir, bigstock

Primer: Google-forskere finder ny transformer-variant med evolution

Primer er tre til fire gange hurtigere at træne end en baseline transformer, skriver forskerne. 
Transformer-arkitekturen har som grundstenen i modeller som BERT og GPT taget NLP-industrien med storm, og leverer stadig flere og flere imponerende resultater på andre områder som vision og proteinfoldning. 
Få fuld adgang til DataTech?
DataTech skriver til dig, der arbejder professionelt med data og analytics. Vi giver dig inspirerende cases, nyheder og debat om alt fra Machine Learning-modeller til dataetik.
Prøv DataTech gratis

DataTech giver dig ny viden, cases og erfaringer med at lykkes med AI og data science i praksis. Få 3 ugers gratis og uforpligtende prøveabonnement

Klik her