DALL-E fra OpenAI bruger Transformers til at generere billeder ud fra et tekstprompt. Her er den blevet bedt om at lave billeder, der viser ure, som imiterer jordbær.
DALL-E fra OpenAI bruger Transformers til at generere billeder ud fra et tekstprompt. Her er den blevet bedt om at lave billeder, der viser ure, som imiterer jordbær.

Foto : OpenAI, DAll-E

Proteiner, billeder og stemmegenkendelse: Transformers kan meget mere end NLP

Transformers kan levere state-of-the-art resultater i en lang række deep learning-opgaver. Men teknikken er stadig meget energitung.
Det er ikke mere en fire år siden Transformer-arkitekturen for første gang blev introduceret, men teknikken har forlængst taget NLP-industrien med storm og blevet udpeget som et af de mest betydningsfulde gennembrud i deep learning generelt de seneste år. 
Vil du have fuld adgang til DataTech?

DataTech skriver til dig, der arbejder professionelt med data og analytics. Vi giver dig inspirerende cases, nyheder og debat om alt fra Machine Learning-modeller til dataetik.

Husk at være logget ind med den e-mail, hvor du har dit abonnement tilknyttet. Oplever du fortsat udfordringer med din adgang, så skriv til support@ing.dk.

Prøv DataTech gratis

DataTech giver dig ny viden, cases og erfaringer med at lykkes med AI og data science i praksis. Få 3 ugers gratis og uforpligtende prøveabonnement

Klik her