Nvidia giver virksomheder adgang til et monster af en sprogmodel - og værktøj til at bygge nye

Nvidia giver virksomheder adgang til et monster af en sprogmodel - og værktøj til at bygge nye
Illustration: Willrow Hood. Se større version
Nvidia forventer at se selskaber, som vil investere milliarder i træning af store sprogmodeller. 
10. november kl. 16:52

I oktober annoncerede Microsoft og Nvidia, at de to tech-kæmper i fællesskab har trænet en sprogmodel med 530 milliarder parametre - cirka tre gange så stor som OpenAI's GPT-3.

Nu bliver modellen - Megatron Turing NLG - tilgængelig for virksomheder, der vil fintune den prætrænede sprogmodel til egne opgaver. Det oplyser selskabet i forbindelse med Nvidias GTC21-konference.

Foruden at gøre selve modellen tilgængelig, annoncerede Nvidia også Nemo Megatron - et rammeværk til at træne sprogmodeller med milliarder og sågar billioner af parametre på en effektiv måde. 

»At træne store sprogmodeller er ikke for svage sjæle,« lød det fra Jensen Huang i hans keynote på konferencen. 

At bruge systemer til 100 millioner dollar til at træne modeller med over en billion parametre på petabytes af data over flere måneder kræver overbevisning, dyb ekspertise og en optimeret stack, siger Nvidia-chefen. 

Men en del af den kompleksitet skulle kunne automatiseres i det nye rammeværk. 

Få fuld adgang til DataTech

DataTech skriver til dig, der arbejder professionelt med data og analytics. Vi giver dig inspirerende cases, nyheder og debat om alt fra machine learning-modeller til dataetik.

Abonnementsfordele
vpn_key
Fuld adgang til DataTech
Alt indhold på DataTech er åbent for dig, så du kan nyde det fra din computer, tablet eller mobil.
drafts
Kuraterede nyhedsbreve
Nyheder, interviews, tendenshistorier og meget mere, leveret til din indbakke.
thumb_up
Adgang til debatten
Deltag i debatten med andre professionelle.
Debatten
Du har ikke tilladelse til at deltage i debatten. Kontakt support@ing.dk hvis du mener at dette er en fejl.
Forsiden