Översikt


Hittar du inte vad du letar efter? Klicka här för att söka.
Annons
Annons

DEBATT: ”Kan maskinintelligens hota rättssäkerheten?”

Debatt
Publicerad: 2020-12-10 10:34

DEBATT – av Norea Normelli, juridikstudent vid Uppsala Universitet.

Artificiell intelligens (AI) används redan för att effektivisera den svenska förvaltningen. Myndigheter som Försäkringskassan och Skatteverket använder till exempel AI för att fatta beslut om utbetalningar och menar att det möjliggör en mer effektiv och rättssäker förvaltning.

AI kan och bör utnyttjas i rättsprocesser för att öka möjligheterna till en rättvis rättegång inom skälig tid, men det är viktigt att redan nu identifiera riskområden och ta fram lagar för att undvika att en sådan användning också kränker samma rättighet. Det finns bland annat ett behov av att säkerställa transparent AI genom lag.

AI kan till exempel användas för att samla in och sortera relevant data och förutse, förutspå eller på sikt meddela egna domslut. Till exempel har man i forskningsstudier tagit fram AI som kan förutse domslut från Europadomstolen i 80 % respektive 75 % av fallen. I USA har man testat AI som, förutom att förutse domslut med 70,2 % säkerhet, kan förutse domarnas enskilda ställningstagande med 71,9 % säkerhet. I USA har domstolen också använt algoritmer för att bedöma risken för återfall i brott, även om just det verktyget har fått mycket kritik.

Möjligheterna och utmaningarna med AI i domstolarna skiljer sig något åt beroende på om det rör sig om brottmål, tvistemål eller förvaltningsprocess. Det följer naturligt av att bland annat partsställningen och bevisningen skiljer sig åt. Datoriserat beslutsfattande utan mänsklig inblandning i brottmål ligger troligen långt fram i tiden, men kan bli verklighet åtminstone i tvistemål rörande enklare rättsfrågor och mindre belopp.

Eftersom AI kan processa information snabbare och mer effektivt än människor, kan AI användas av domstolarna för att säkerställa rätten till en rättegång inom skälig tid även när domstolarna är belastade med många ärenden. Genom att låta AI ta sig an enklare och mer administrativa uppgifter under ärendehandläggningen, kan människor lägga mer tid på bland annat skälighetsbedömningar som kräver mer omfattande juridisk argumentation.

Parternas likställdhet i processen kan också stärkas om AI används för att ta fram expertutlåtanden. Dagens system med möjlighet att kalla sakkunniga vittnen innebär ofta höga kostnader. Det innebär att en ekonomiskt starkare part i ett tvistemål idag har större möjligheter att inhämta bevis till stöd för sin ståndpunkt. Genom att låta AI ta fram expertutlåtanden, får den ekonomiskt svagare parten samma möjlighet.

Samtidigt får AI inte börja användas för effektivitetsändamål på bekostnad av rättssystemets trovärdighet, särskilt eftersom att ökad trovärdighet är ett av ändamålen bakom kravet på en rättegång inom skälig tid.

Bristande transparens hos AI kommer utgöra ett stort hot mot rättssystemets trovärdighet, om AI används i rättsväsendet. Det kan till exempel leda till att en domstol omedvetet grundar sitt beslut på diskriminerande grunder. Rätten till ett kontradiktoriskt förfarande kan också kränkas, eftersom det kan vara svårt eller omöjligt att kommentera eller motbevisa en slutsats av en AI utan kännedom om de grunder den baseras på. Dessutom kan parternas likställdhet i processen hotas om en part får ett stort informationsövertag gentemot den andra, eller om en domstol inte kan skriva tillräckligt motiverade domskäl när den förlitar sig på slutsatser från en icke-transparent AI.

Målet måste vara att utveckla AI som kan användas i domstolar för att öka möjligheterna till en rättvis rättegång, samtidigt som åtgärder vidtas för att säkerställa att AI inte används på ett sätt som kränker samma rättighet. För att nå det målet är juridiken ett lämpligt medel.

Genom att upprätta lagar som ställer krav på viss transparens hos AI finns möjlighet att minska risken för att rätten till en rättvis rättegång kränks. Ökad transparens gör det också möjligt att identifiera eventuella bias hos en AI och göra domarna uppmärksamma på dem, så att domstolarna kan agera opartiskt och inte reproducera fördomar.

Full transparens är varken nödvändig eller önskvärd, eftersom överflödig information kan försvåra möjligheten att ta till sig information och utvärdera den. Dessutom är källkoden bakom en AI ofta skyddad som företagshemlighet och full transparens är därför också svår att kräva.

Vissa krav på informationsgivning vid användning av artificiell intelligens finns i GDPR, men eftersom de endast tillämpas vid beslut som enbart grundas på automatisk behandling, är informationskraven inte tillräckliga för att försäkra tillräcklig transparens hos annan AI än den som fattar egna beslut.

Nya lagar för att säkerställa transparent AI bör omfatta bland annat krav på information om syftet bakom användningen, vilken uppgift och inlärningsteknik en AI har, vilken data som används samt utvärderingar av användningen och framtida planer för övervakningen av aktuell AI. Reglerna bör också fastställa i vilken grad domare får förlita sig på AI och vad som händer om AI som används inte uppfyller kraven som ställs på den.

Utformningen av reglerna kommer att kräva en avvägning mellan flexibilitet och reell praktisk verkan. Det gäller att förhindra att reglerna blir obsoleta snabbt och samtidigt undvika att de endast blir ett spel för gallerierna. En möjlighet är att i lag reglera informationsskyldigheten i bredare termer och i förarbeten exemplifiera vilken information som kan delges för att en AI ska vara tillräckligt transparent. De specifika kraven på informationsgivning kan då anpassas till teknikutvecklingen.

För att kunna utnyttja AI och säkerställa ett effektivt skydd av rätten till en rättvis rättegång, utan att kränka densamma, är det viktigt att redan nu identifiera problemområden inom olika rättsprocesser och ta fram juridiska lösningar.


Dela sidan:
Skriv ut:

Dagens Juridik
red@dagensjuridik.se