Prætrænede kæmpemodeller giver risiko for algoritmisk indavl

16. december 2021 kl. 03:27
foundation models
Illustration: Nanna Skytte.
Store, deep learning modeller trænet på uanede mængder ukurateret data, er i stand til at løse en lang række opgaver, de aldrig har set før. Men alle AI-systemer, der bygger på dem, risikerer at nedarve deres fejl.
Artiklen er ældre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

Store, prætrænede modeller kan væsentlig sænke kravene til at skabe en tilstrækkeligt god AI-model. Det kræver langt mindre computerkraft at fintune en prætrænet model, end at træne en tilsvarende model fra bunden, og gør det muligt at bygge AI-systemer til områder, hvor der ellers aldrig kunne indsamles nok data. 

Få fuld adgang til DataTech

DataTech er til professionelle, der arbejder med data og analytics.

Få 3 uger gratis prøve abonnement til DataTech. Betalingskort er ikke påkrævet, og du vil ikke blive flyttet til et betalt abonnement efterfølgende.

Du kan også få tilsendt et tilbud til dig.

Abonnementsfordele
vpn_key
Fuld adgang til DataTech
Alt indhold på DataTech er åbent for dig, så du kan nyde det fra din computer, tablet eller mobil.
drafts
Kuraterede nyhedsbreve
Nyheder, interviews, tendenshistorier og meget mere, leveret til din indbakke.
Adgang til andre medier
Hver måned får du 6 klip, som kan bruges til permanent at låse op for indhold på vores andre medier.
thumb_up
Adgang til debatten
Deltag i debatten med andre professionelle.
Ingen kommentarer endnu.  Start debatten
Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger