Kan AI bli ett hot?
2019 kan bli året då Artificiell Intelligens (AI) på allvar förändrar flera branscher. Många företag ligger i startgroparna för satsningar, men samtidigt finns risker för att säkerhetsfrågorna kopplade till AI prioriteras för lågt. Detta enligt en ny rapport från PwC.
Idag är många företagsledningar på det klara med att AI kan ha stor påverkan på deras affärsmodeller. Enligt beräkningar kan AI bidra med hissnande 15 700 miljarder dollar till den globala ekonomin 2030. PwC har publicerat rapporten 2019 AI Predictions PwC där de under hösten 2018 frågat 1 000 chefer i USA om hur deras organisationer ser på AI.
Enligt undersökningen är det många beslutsfattare som missar en av nyckelfrågorna.
– Idag satsar allt fler företag på AI och 2019 lär vi få se en explosion inom området, men samtidigt måste säkerhetstänket hänga med. Här finns mycket att göra inom många organisationer, såväl privata som offentliga, berättar Jakob Bundgaard ansvarig Cyber Security, PwC Sverige.
Även om det finns en medvetenhet om utmaningen så visar rapporten att det fortfarande återstår mycket arbete när det gäller fokus på AI-säkerhet. Bara 47 procent av de svarande planerar att öka fokus på tester när det gäller påverkan av datamodeller och användning av algoritmer. Dessutom är det bara drygt hälften som tänker satsa på att förbättra styrning av driftsmodeller och processer kopplade till AI.
– Det har funnits en diskussion och ökad oro för hur AI kan påverka integritet och sysselsättning, men inte lika ofta kopplat till cybersäkerhet. Samtidigt märker vi nu att allt fler ställer sig frågan om det går att lita på AI. Så det är ingen överraskning att cheferna i den här undersökningen säger att AI-systemens pålitlighet lyfts som en av deras största utmaningar för 2019.
Enligt PwC behövs en tydlig organisation hos företag som har ansvar för dessa frågor och de bör tänka på följande:
- Opartiskhet - minskar riskerna för påverkan med de data- och AI-modeller som ni använder, eller är det tvärtom så att de ökar?
- Tolkningsbarhet - kan ni förklara hur en AI-modell fattar beslut och kan ni säkerställa att besluten är korrekta? Om inte, vems är ansvaret?
- Robust och säker - kan ni lita på AI-systemets prestanda och hur sårbart systemet är för angrepp?
- Styrning - vem är ansvarig för AI-system och finns rätt kontroller på plats?
- Etiskt perspektiv - överensstämmer era AI-system med regler och lagar och hur kommer de att påverka anställda och kunder?