I februari i år bjöd Europarådet in till en konferens i syfte att diskutera Artificiell intelligens (AI) påverkan på de mänskliga rättigheterna och demokratin.
AI är ett digitalt teknikområde som utvecklas snabbt och omfattar en rad tekniker, inte minst maskininläsning och djupinläsning. Det som utmärker AI från andra metoder för automation är teknikens förmåga att lära sig och bli smartare över tid. Den nya utvecklingen på området innebär stora möjligheter, men även helt nya utmaningar. Vi lever i en värld som ständigt utvecklas och där tekniken går framåt med stormsteg, samtidigt som lagstiftningen släpar efter. Hur ska rättssystemet garantera att man kan nyttja möjligheterna som tekniken för med sig och samtidigt begränsa och förhindrar riskerna för samhället och människan i övrigt?
De flesta människor som sökt efter något på internet vet att AI påverkat upplevelsen. Sökbegrepp man använt sig av sammanställs och algoritmstyrda annonser genereras med syftet att ge en förhöjd användarupplevelse, men även frambringa säljmöjligheter för företagen. Tekniken ger upphov till fantastiska möjligheter, men baksidan av densamma är stor. De invecklade algoritmerna spårar beteenden och resultaten blir olika beroende av vilka data som matas in. Att få annonser om exempelvis glassmaskiner riktade till sig i sociala medier för att man tidigare gjort en Google-sökning på detsamma kan tyckas vara en irriterande men ofarlig konsekvens. Algoritmerna används däremot på fler områden än så, där konsekvenserna kan bli betydligt större och djupgående.
Eftersom AI är beroende av de data som från början matats in kan det leda till att samhällets fördomar färgar de resultat som uppstår. Om vi låter den tekniska världen ta beslut baserad på en viss fördom, blir risken därmed att fördomen förstärks. Vidare kommer resultaten vara svåra att bemöta då bakomliggande data som resultaten baserats på ofta inte går att få fram och därmed inte heller ifrågasättas. Ponera att vi exempelvis låter AI-tekniken bedöma vilka människor som är lämpade för att söka ett jobb som IT-chef på ett företag. Om den självlärande AI:n sammanställer tidigare data (exv. data om de tidigare anställda som haft befattningen) och kommer fram till att basera resultatet (dvs. vilka som ska ha rätt att söka jobbet) på de tidigare anställdas ålder (30-35 år) och kön (kvinnor). Detta leder således till att AI:n kommer att utesluta en ansökan från en man i 45 års ålder, trots att denne faktiskt skulle kunna varit en bra kandidat för jobbet. Genom att lägga in förutsättningar som påverkar resultatet riskerar man att få ett resultat baserat på partiska faktorer. Algoritmernas fördomsfullhet kan således ge upphov till så kallad algoritmisk diskriminering.
Ovanstående risker uppmärksammades under 2018 och EU-kommissionen tillsatte en expertgrupp med uppdrag att skapa etiska riktlinjer för AI-användning. I april i år kom expertgruppen ut med riktlinjer med förslag på områden som är viktiga att se över. Huruvida dessa riktlinjer i framtiden kommer specificeras eller omvandlas till regler och rekommendationer återstår att se. AI-utvecklingen ger upphov till en hel del för lagstiftaren och juristerna att ta tag i. Hur säkerställer man rättvishet och integritet, samtidigt som man inte i för stor utsträckning inskränker AI:s påverkan på framtiden?
Läs expertgruppens riktlinjer här, eller ta kontakt med en IT-advokat för mer information.