AI skal udvikles bæredygtigt for at minimere miljøaftryk

Det koster på energiregningen, når vi udvikler mere komplekse modeller for kunstig intelligens. Vi er nødt til at integrere bæredygtighed i udviklingen af ​​AI for at sikre, at en fremtidig bred anvendelse af teknologien vil udgøre en minimal belastning for miljøet-
Brødtekst

Tendensen inden for udviklingen af kunstig intelligens er at bruge større datamængder og mere komplekse modeller for at skabe den klogeste løsning. Udfordringen er, at denne tilgang kræver mere computerkraft, hvilket efterlader et større miljøaftryk.

Udfordringen er større, end man skulle tro. I dag bruger datacentre allerede omkring 200 terawatt-timer hvert år, hvilket ca. svarer til Spaniens eller Australiens samlede energiforbrug. I værste fald kan informations- og kommunikationsteknologi udgøre 20 procent af verdens samlede energiforbrug om ti år, ifølge forskning offentliggjort i det videnskabelige tidsskrift Nature.

Et fælles ansvar

Miljøet belastes af den måde, som AI-algoritmerne virker på. Algoritmerne trænes med data til at udføre en opgave, og jo mere data, algoritmerne bliver fodret med, jo bedre bliver de til at udføre deres opgave.

Hver dag bliver stadigt større mængder af data tilgængeligt, som AI-algoritmerne kan analysere. Eksempelvis blev ansigtsgenkendelses-algoritmer i 2003 trænet ved hjælp af 11.338 billeder på billeddatabasen FERET, mens algoritmerne i dag kan trænes ved hjælp af over 3,5 milliard billeder på Instagram. Regnestykket er enkelt: Mere data giver en større elregning.

Hertil kommer, at de modeller, som bruges til at bygge AI-algoritmerne, også bliver mere komplicerede. For at illustrere dette har Microsoft for nylig offentliggjort, at deres såkaldte natural language processing-model bruger 17 milliarder parametre, hvilket er en markant stigning kun et år efter, at forskningslaboratoriet OpenAI offentliggjorde en model med 1,5 milliarder parametre.

Vi er nødt til at tænke ind i udviklingen, hvordan vi kan reducere AI-teknologiernes voksende strømforbrug. Ansvaret ligger først og fremmest spredt ud over de forskellige afdelinger i virksomheder, som udvikler AI.

Ledelsen kan implementere politikker, der sikrer, at alle afdelinger arbejder i samme bæredygtige retning. IT-afdelingerne kan bruge mere energieffektiv hardware til at køre AI-algoritmer – for eksempel Googles såkaldte tensor-behandlingsenhed (TPU), som er skræddersyet til maskinlæring.

Softwareudviklerne kan designe mere bæredygtige AI-modeller ved at bruge en tilgang, der reducerer behovet for databeregningskraft, mens de bevarer evnen til at forudsige mønstre. En anden vej frem er at bruge et mindre numerisk format til at opbevare tal eller sørge for ikke at klassificere flere klasser end nødvendigt. Alle disse forskellige løsninger sparer energi, da færre data skal gemmes og behandles.

Styrk din bæredygtighedsscore med AI

Kunstig intelligens er langtfra kun en miljøbelastning, for teknologien er også skræddersyet til at fremme bæredygtighedsformål. Eksempelvis arbejder de to danske KPMG-afdelinger NewTech og CSR og Sustainability Services sammen om et pilotprojekt, hvor de først evaluerer miljøpåvirkningen og derefter udvælger den bedste udviklingsmetode for specifikke AI-løsninger.

Et andet eksempel er KPMG i Storbritannien, som i partnerskab med Google Cloud har udviklet en AI-prototype for en forbrugsvirksomhed, som bruger billedgenkendelse til at registrere, hvornår virksomhedens emballage dukker op i affaldsgenvindingsanlæg. På den måde kan virksomheden starte initiativer målrettet, således at større mængder materiale i specifikke områder bortskaffes på en ansvarlig måde. Denne specifikke løsning er desuden udviklet med energi-effektiv hardware. 

Ifølge en AI Index-rapport fra Stanford University accelererer AI's computerkraft hurtigere end traditionel processorudvikling. Det betyder mere konkret, at AI-algoritmernes applikationsydelse er blevet fordoblet hver 3,4 måned ved at udnytte AI-optimeret hardware.

AI bliver altså hurtigt klogere, og det skal vi drage fordel af, når vi udvikler den næste generation af algoritmer. Algoritmer, der bruger AI's accelererede indlæringskurve, men som ikke har samme behov for voldsomt store mængder af data.