Stater har ett ansvar för att skydda mänskliga rättigheter när avancerad digitalteknik används.
Det är slutsatsen av en ny studie om ansvarsutkrävande och artificiell intelligens, som utförts av Europarådets expertkommitté om människorättsdimensionerna i automatisk databehandling och olika former av artificiell intelligens, rapporterar Advokatsamfundet.
Studien, vid namn Responsabilité et IA eller Responsibility and AI, undersöker rättsliga och etiska frågor i samband med digitalteknik och artificiell intelligens.
Studien har särskilt fokus på hot mot mänskliga rättigheter, såsom personlig integritet och skyddet för personuppgifter, och undersöker hur ansvar bör utkrävas gällande risker för inskränkningar i de mänskliga rättigheterna och grundläggande friheterna enligt Europakonventionen (EKMR).
Varje stat har eget ansvar
Enligt Advokatsamfundet drar studien slutsatsen att den makt som avancerade digitala tekniker och system innebär inte kan tillåtas utan ansvarsutkrävande. Det innebär att de som ”njuter frukterna” av den digitala tekniken, inklusive den artificiella intelligensen, även måste ta ansvar för teknikens negativa konsekvenser.
Studien kommer därför fram till att varje stat har en skyldighet att skydda de mänskliga rättigheterna genom mekanismer som möjliggör ansvarsutkrävande för risker och skador härrörande från användningen av avancerad digitalteknik.
Studien kan laddas ned som PDF, på franska eller engelska, från Europarådets webbplats.