XAI-forsker: Vi ved for lidt om, hvad der egentlig kræves af en god forklaring
One size fits all dur ikke, når det gælder AI-forklaringer.
One size fits all dur ikke, når det gælder AI-forklaringer.
Explainable AI (XAI), altså forklarlig kunstig intelligens, har meget fokus i øjeblikket, fordi maskinlæringsmodeller bliver mere ugennemskuelige og komplekse, og fordi datadrevne modeller bliver brugt mere til kritiske beslutninger og af ikke-ekspertbrugere. Der findes dog mange forskellige måder at lave forklarlig kunstig intelligens på og dermed også et hav af forskellige metoder. Ved at definere egenskaber og typer af metoder og forklaringer og ved at give et overblik over de mest kendte metoder, vil vi hjælpe med at finde rundt i junglen af XAI-metoder.
Beslutningsstøtteværktøjet RBKnee, som skal hjælpe radiologer med at vurdere graden af slidgigt i røntgenbilleder af knæ, er et af de projekter, der skal bane vejen for AI i sundhedsvæsnet.
Forklaringer skaber ikke bare gennemsigtighed, men kan også bruges til at forbedre modellen, skriver Katrine Hommelhoff Jensen.
Deep learning-model kan forudsige kritiske tilstande bedre end eksisterende metoder, men forudsigelse alene er værdiløs.
DataTech giver dig ny viden, cases og erfaringer med at lykkes med AI og data science i praksis. Få 3 ugers gratis og uforpligtende prøveabonnement
Klik her