Rettsinfo
  • Portal
  • Søk
    v
  • Min konto
  • Logg på
  • Marcdata
  • RIS
  • Referanse
Tittel:Forklarbarhet i algoritmisk velferdsforvaltning : Demokrati og rettssikkerhet ved bruk av maskinlæringsmodeller i saksbehandlingen
Ansvar:Åse Haram
Forfatter:Haram, Åse
Materialtype:Elektronisk bok
Utgitt:Oslo : Senter for rettsinformatikk, Universitetet i Oslo, 2021
Omfang:136 s.
ISBN/ISSN:2703-8777
Serie:Complex ; 6/2021
Emneord:Demokrati / Forvaltningsrett / GDPR / Maskinlæring / Saksbehandling / Velferdsrett
Note:Complexserien er en åpen, offentlig ressurs som kan brukes fritt, så lenge det tydelig går frem hvor materialet kommer fra.
Opprinnelig avgitt som avhandling 2021.
Innhold:Sammendrag
Maskinlæringsmodeller kan benyttes til å påvise sammenhenger i store datasett, til å profilere, klassifisere og predikere. I modelleringen benyttes avanserte algoritmer og store mengder data, og modellene kan derfor være lite forklarbare, det vil si lite forståelige, forutberegnelige og etterrettelige.

Dersom maskinlæringsmodeller skal anvendes i forvaltningens saksbehandlingssystemer, til å automatisere vurderinger eller som beslutningsstøtte til saksbehandlere, må det være mulig å overholde offentlighetsprinsippet og borgernes innsynsrett. I enkeltsaker må dessuten partens rett til kontradiksjon, personvern, privatliv og ikke-diskriminering ivaretas. Modellenes og systemenes forklarbarhet er derfor en betingelse for et velfungerende demokrati og rettssikre forvaltningsavgjørelser.
(Gjengitt med forfatterens tillatelse).

I denne oppgaven presenterer jeg forklaringsbegreper og forklaringsmetoder fra den tekniske litteraturen om maskinlæring, og drøfter hvordan disse kan tilpasses forvaltningskonteksten. Gjennom analyse av flere eksempler på algoritmiske beslutningssystemer ser jeg på hvordan disse begrepene og metodene kan bidra til overholdelse av de rettslige krav til forklaring som følger av Grunnloven, forvaltningsretten, EMK og GDPR.

Jeg kommer blant annet frem til at det er et behov for regler for dokumentasjon av algoritmiske beslutningssystemer, og løsninger for å publisere eller gi innsyn som er meningsfulle for borgerne. Dette er nødvendig for å realisere offentlighetsprinsippet og den aktive informasjonsplikten. I noen tilfeller kan det være behov for å legge til rette for medvirkning fra interessenter eller berørte, for å sikre at modellen bygger på et saklig og representativt utvalg av data og at egenskapen den predikerer for (utgangsvariabelen) er relevant.

Når det kommer til enkeltavgjørelser rettet mot en part vil disse måtte forklares både lokalt (på enkeltprediksjonsnivå) og globalt (på overordnet modellnivå), og det bør fremgå av en form for systembeskrivelse hvordan systemet er innrettet og utøver myndighet. En gjennomgang av noen utvalgte lokale forklaringsmetoder for komplekse modeller, herunder approksimasjoner og kontrafaktiske forklaringer, tyder på at slike metoder ikke tilfredsstiller forvaltningslovens krav til begrunnelse. Det tilsier at enklere og mer forklarbare modeller bør velges i automatiserte avgjørelser. Det kan være mindre problematisk å ta i bruk 5 komplekse modeller som beslutningsstøtte, under forutsetning av at saksbehandlerne har tilstrekkelig kompetanse til å forstå modellen og anvende prediksjonene på en forsvarlig måte.

Kravet til forklarbarhet skjerpes for systemer som har mye personopplysninger, personopplysninger av sensitiv karakter (eller proxier for sensitive egenskaper) i datagrunnlaget, fordi dette fører med seg en risiko for diskriminering og usaklig forskjellsbehandling. Da må forvaltningsorganet sørge for dokumentasjon på at risikoen er håndtert gjennom tiltak som rettferdighetsteknikker, sosioteknisk analyse eller algoritmisk konsekvensanalyse.

Jeg konkluderer også med at algoritmisk forvaltning, og kontrollen med denne, i større grad vil kreve systemperspektiv enn det har vært tradisjon for i forvaltningsretten. Selv om både GDPR og den kommende AI-lovgivningen fra EU inneholder systemkrav, må også forvaltningsretten tilpasse seg teknologien. Man bør vurdere egne saksbehandlingsregler for algoritmisk forvaltning, noe som blant annet kan omfatte et endret begrunnelseskrav.

Vedlegg:- Hos utgiver