top of page

AI-dommere i rettsalene



Det har vært mye diskusjon og forskning om bruk av kunstig intelligens i rettssystemet, ikke minst som erstatning for dommere. Det er mange som mener at ved å bruke AI i rettsvesenet, kan saker håndteres raskere og mer konsistent enn menneskelige dommere. AI er i stand til å prosessere store mengder data raskt, og kan derfor gi mer informerte og objektive avgjørelser basert på juridiske presedenser og regler. Alle mennesker, også dommere, påvirkes av kognitiv bias, utmattelse osv. Men det gjør ikke AI.


Pr. i dag finnes det pilotprosjekter og eksperimenter knyttet til bruk av AI i rettssystemet, som blant annet analyser av sannsynligheten for gjentakelse av kriminalitet. Eller at de har en hjelperolle med å sortere og analysere rettsdokumenter, og således bidra til tidsbesparelse ved rask eliminering av irrelevant materiale. Pilotprosjektene gir verdifull innsikt i AI's potensielle rolle i rettssystemet.


Eksempelvis har Canada eksperimentert med AI for å hjelpe dommere med å analysere juridiske dokumenter og presedenssaker, for å gi raskere og mer informerte beslutninger. Flere europeiske land, inkludert Storbritannia, bruker AI for juridiske analyser og andre forbedring av rettsprosesser. Dette inkluderer automatisering av noen administrative oppgaver og analyse av juridiske dokumenter. Mens IT-orienterte land som Estland, angivelig bare vurderer å bruke AI for å avhjelpe håndtering av småkravsaker i rettssystemet.


Selv om det er udiskutable fordeler ved bruk av AI i rettssystemet, mener fortsatt mange (og særlig de som har sitt levebrød i sektoren), at rettsbehandling gjennom AI kan bli for komplekse og vanskelige å forstå. Men det at en AI-dommer er i stand til å prosessere og analysere alle sakens bevis, burde ikke medføre at folk forstår mindre av en dom. Tvert imot vil det ganske sikkert bli det motsatte, nettopp fordi kunstig intelligens kun tar hensyn til sakens omstendigheter og landets lover, uten å bli forurenset av subjektive holdninger og agendaer.


Det er også innsigelser knyttet til hvem som skal stilles til ansvar dersom AI-dommere skulle foreta feil avgjørelse (justismord). Men også denne innvendingen er mer enn tvilsom, ettersom ingen av landets nåværende dommere har måttet stå til ansvar for grove feil eller bevisst manipulasjon.


Det er å formode at den samme gruppen av mennesker, også er de som formidler bekymring om i hvilken grad man kan vite at AI-dommere respekterer grunnleggende rettsprinsipper som rettferdighet og nøytralitet. Den åpenbare tilnærmingen til dette er kvalitetssikring og testing til man vet at AI representerer et godt og forsvarlig system. Og om man sammenligner med eksisterende forsvarlighetsgrad i landets domstoler, kan AI-dommere i realiteten gjøre ganske mye feil før de er på samme nivå.


I den juridiske sfæren hevdes det også at menneskelig dømmekraft, empati og forståelse av komplekse menneskelige forhold, er avgjørende i mange rettslige avgjørelser. Og det mener de vil kunne fremstå som en for stor utfordring for AI-dommere. Men igjen må man lure på om det ligger vikarierende motiver bak uttalelsene. For det er ganske tydelig at verken empati eller forståelse rundt komplekse menneskelige forhold, synes å være spesielt fremtredende egenskaper i dagens domstoler, i alle fall ikke rundt saker om varsling, barneomsorg og trygdebrukere. Og litt for ofte heller ikke i alvorlige straffesaker som Baneheia-saken, Tengs-saken osv.


Omfattende implementering av AI-dommere i vårt rettssystem, ligger nok uansett langt inn i fremtiden. Det er nemlig ikke bare kvalitetsnivået som må garanteres, men motstanden fra alle maktpersonene som er avhengig av status quo, må også overvinnes.


I min egen varslingssak mot Frelsesarmeen/Fretex, hadde det utvilsomt vært bedre med en domstol besatt med dommere som kun tar hensyn til sakens omstendigheter og landets lover. Da hadde min sak, i likhet med svært mange andre varslingssaker, fått et helt annet utfall.


God søndag!


bottom of page