Översikt


Hittar du inte vad du letar efter? Klicka här för att söka.
Business
Publicerad: 2019-10-09 10:16

AI + Juridik = Sant – men vem bär ansvaret?

Självkörande fordon. Foto: AP

Det finns många som skriver och talar om att juridiken som arbetsområde och bransch kommer att förändras med nya tekniker och inte minst med det vi kallar för artificiell intelligens (AI).
AI-området beskrivs ofta som teorin om och utvecklingen av maskiner som utför uppgifter som traditionellt kräver mänsklig intelligens. Det finns ingen fastställd eller allmänt erkänd definition av begreppet AI, utan det ses ofta som ett samlingsbegrepp för en rad olika teknologier och verktyg som används för att automatisera informationsbehandling och processer om beslutsfattande. Många drar paralleller mellan effekterna som AI spekuleras få för samhället och de effekter elektriciteten hade en gång i tiden, vilket ger en indikation om vilka implikationer AI kan få.

 

Linn Alfredsson

Linn Alfredsson, Associate i IP/Tech gruppen hos Hannes Snellman skriver en artikelserie om tech och juridik och om hur den digitala utvecklingen ska tacklas ur ett juridiskt perspektiv.

”Jag är initiativtagare till Tech Academy, med ett stort intresse för tech och retail, samt med juridisk examen från både Sverige och USA. Artiklarna i denna serie speglar mina egna åsikter och ställningstaganden”.

"Att AI-verktyget så att säga utvecklar sig självt ställer frågan om ansvar för fel och skada i nytt ljus."

AI sägs ofta vara en av flera komponenter i den transformation som ingår i begreppet digitalisering och som kommer att vända upp och ner på många branscher, inte minst juristens yrke och arbetssätt.
En förutsättning för att kunna nyttja AI-teknik på ett effektivt sätt är att stora mängder högkvalitativ data, som kan användas i algoritmerna eller AI-verktygen, finns tillgänglig. Maskininlärning (eng. machine learning), som är en underkategori av AI, syftar till att algoritmen lär sig själv allteftersom systemen exponeras för mer data istället för en traditionell manuell omprogrammering.

Att AI-verktyget så att säga utvecklar sig självt ställer frågan om ansvar för fel och skada i nytt ljus. Vilken part blir t.ex. ansvarig när en självkörande bil tar beslut baserat på data som genererats och därmed orsakar en olycka?

"En part har alltså tillverkat verktyget medan en annan part står för användande och därigenom vidareutveckling av produkten"

I filmen iRobot kan man se exempel på hur en programmerad robot fattar beslut att rädda en man istället för en flicka i en bilkrasch baserat på sannolikheten för överlevnad. Den mänskliga faktorn säger nog för de flesta att det beslutet kunde varit annorlunda då vi inte kunnat kalkylera risken i en nödsituation och inte heller kunnat dra en logisk slutsats. iRobot tog ett logiskt kalkylerat beslut utifrån sannolikhet, men vad hade varit resultatet om AI-verktyget som använts gjort en felaktig bedömning utifrån data som matats in av användaren av verktyget och inte av tillverkaren?

Ansvarsfrågan i förhållande till AI-verktyg har på senare tid börjat få mer uppmärksamhet men utan några direkta svar. Det är alltså viktigt att ansvaret regleras eller åtminstone att principer för hur dessa frågor ska hanteras upprättas. I anslutning till detta har juristen och den samhällsvetenskaplige teknikforskaren Stefan Larsson också belyst behovet och vikten av att upprätta sådana ramar.
Ju allvarligare situationer och ju mer integrerade i samhället, desto viktigare är det att förstå hur självlärande teknologier fungerar och samspelar med människor och hur vi ska fördela ansvaret om något går snett.
Normalt i en avtalsrelation regleras ansvaret och begränsningar i avtalet mellan parterna. Det som skiljer AI-verktyg från andra avtalsrättsliga situationer är att AI-verktygen konstant matas med information och data från användaren för att verktygets algoritmer ska kunna uppfatta nyanser och skillnader inom just användarens verksamhet och för att fortsätta utvecklas och kunna ge ännu bättre svar. En part har alltså tillverkat verktyget medan en annan part står för användande och därigenom vidareutveckling av produkten. Nämnvärt är att verktyget inte kan beräkna korrekt (och eventuellt därför felberäknar) om den inte fått all relevant data från användaren, vilket medför en viss osäkerhet i resultatet. Eftersom verktyget utvecklar sina modeller kontinuerligt baserat på de data som insamlas av användaren, blir det också svårt för leverantören av AI-verktyget att säkerställa algoritmens utfall och därigenom hållas ansvarig vid fel och skada som uppstår.

 

"Automatiserade fordon är inte undantagna från ansvaret, och förhoppningen är att olyckorna ska bli färre."

I ansvarsdelen finns det flera legala aspekter som blir intressanta. Låt oss återgå till den självkörande bilen. Om tillverkaren av bilen har köpt ett AI-styrt system från en systemleverantör (underleverantör) – vem kan den skadelidande vända sig till för att kräva ersättning? Kan ansvaret begränsas om användaren av bilen har matat in egen data i systemet för att ”träna” algoritmen till att agera på ett specifikt sätt i given situation?

I Sverige finns det krav om trafikförsäkring för motorfordon för att garantera skälig ersättning för personskada. Inom EU-rätten inbegrips flera aktörer inom begreppet ”tillverkare” vilket gör att ansvarsfrågan kan bli svår att avgöra. Enligt skadeståndsrättsliga principer är alla aktörer som klassas som ”tillverkare” generellt ansvariga för personskada orsakat av säkerhetsbrist i produkten, där även regresstalan kan bli aktuellt. Tillverkarens ansvar kan dock begränsas alternativt upphöra i det fall den skadelidande personen kan anses medvållande.

Automatiserade fordon är inte undantagna från ansvaret, och förhoppningen är att olyckorna ska bli färre. Enligt SOU 2018:16 kommer fordonstillverkare att få ta ett allt större ansvar för hur fordonet agerar i trafiken. Den stora förändringen är det AI-verktyg som nu kommer att finnas i bilen som hjälper fordonet att ta egna beslut. Risken med ett utökat ansvar för fordonstillverkare är att de ekonomiska incitamenten till att utveckla automatiserade fordon kan minska. Samtidigt blir det nog svårt för konsumenter att ta till sig denna teknik om användningen ska ske på egen risk.

"Detta är en ny problematik som uppstår i gränslandet mellan teknik och juridik"

I ett ständigt föränderligt samhälle med alltmer autonoma beslut behöver vi från ett juridiskt perspektiv utveckla fungerande förhållningssätt gällande hur vi reglerar ansvaret i avtalen mellan tillverkare och användare. Utmaningen ligger framför allt i att se till tredjeparter som inte är en del av avtalsförhållandet och skadelidande parter som själva bidragit till skadan som orsakats av produkten. Kan en bidragande faktor anses vara att förse systemet med data som underlag för beslutsfattandet? Minskar i så fall tillverkarens ansvar för ett AI-verktyg?

Detta är en ny problematik som uppstår i gränslandet mellan teknik och juridik, där ansvarsfrågan och alla regleringarna som rör denna behöver ses över inom en snar framtid. För vem bör egentligen bära ansvaret för när en annan människa mister livet i en olycka där orsaken är en felbedömning i en produkt eller ett system?


Dela sidan:
Skriv ut: