Over 100 forskere om fundamentale modeller som GPT-3: Det er et paradigmeskift, vi ikke forstår

Over 100 forskere om fundamentale modeller som GPT-3: Det er et paradigmeskift, vi ikke forstår
Illustration: Len44ik, Bigstock. Se større version
Modeller, som kan det hele, er ved at ændre måden vi bedriver AI på. Homogenisering kan være farlig, mener en stor gruppe Stanford-forskere, der har lavet nyt forskningscenter om emnet.  
23. august kl. 11:10
errorÆldre end 30 dage

En række kraftfulde ML-modeller som BERT, DALL-E og GPT-3 er i færd med at ændre måden AI-systemer bliver bygget og implementeret på. Og det er til trods for at vi langt hen af vejen ikke forstår, hvordan de fungerer.

Sådan lyder beskeden fra en meget stor gruppe AI-forskere på Stanford University, der i et 160-siders opus forsøger at kortlægge udviklingen af det de kalder foundational models. Disse modeller, som ganske vist bygger på klassisk deep learning og transfer learning, har i kraft af deres skala vist sig at være særdeles effektive på en lang række opgaver. 

»Despite the impending widespread deployment of foundation models, we currently lack a clear understanding of how they work, when they fail, and what they are even capable of due to their emergent properties,« skriver forskerne.

Få fuld adgang til DataTech

DataTech skriver til dig, der arbejder professionelt med data og analytics. Vi giver dig inspirerende cases, nyheder og debat om alt fra machine learning-modeller til dataetik.

Abonnementsfordele
vpn_key
Fuld adgang til DataTech
Alt indhold på DataTech er åbent for dig, så du kan nyde det fra din computer, tablet eller mobil.
drafts
Kuraterede nyhedsbreve
Nyheder, interviews, tendenshistorier og meget mere, leveret til din indbakke.
thumb_up
Adgang til debatten
Deltag i debatten med andre professionelle.
Debatten
Du har ikke tilladelse til at deltage i debatten. Kontakt support@ing.dk hvis du mener at dette er en fejl.
Forsiden