Populærvitenskapelig formidling av behovet for tillit i interaksjonen mellom menneske og teknologi

Etter at jeg hadde publisert teksten om verdifulle hemmeligheter publiserte jeg også teksten adferdsinformatikk som en kort artikkel på nettstedet LinkedIn, som ytterligere ledd i svare på arbeidskravet i emnet. I denne artikkelen valgte jeg å være fullstendig «tro» mot innholdet i den vitenskapelige artikkelen. Formidlingen ble dermed vanskeligere, nettopp fordi jeg ikke fant noen effektive «formidlingsgrep» som kunne forenkle innholdet og samtidig beholde «sannheten» i det. På denne artikkelen fikk jeg betydelig mindre respons enn på den forrige artikkelen, hvor jeg lett kunne finne frem til et begrep som folk kjente seg igjen i – nemlig begrepet hemmeligheter. I den foreliggende artikkelen derimot, var det nødvendig å formidle et paradigmatisk skifte i måten man designer systemer for interaksjon mellom mennesker og maskiner på. Da ble det nødvendig å introdusere begrepet rasjonell aktør, antatt adferd og faktisk adferd – og da tror jeg rett og slett at leseren slutter å lese. Igjen en erkjennelse om at det er vanskelig (kanskje også umulig) å formidle det som er komplekst på en forenklet måte, uten at noe går tapt. Jeg forsøkte i det minste å bruke begrepet tillit for å skape gjenkjennelse hos leseren, men ettersom jeg ikke har noen systematisk empiri å vise til – annet enn et mindre antall responser på denne artikkelen – er det vanskelig å vite hva slags potensiell effekt dette grepet kan ha hatt.

Adferdsinformatikk

I en nylig publisert vitenskapelig artikkel lanserer vi begrepet Behavioural Computer Science (et begrep vi på norsk har oversatt til adferdsinformatikk) og forklarer hvorfor man bør basere modeller for interaksjoner mellom menneske og teknologi mer på psykologisk vitenskap om menneskers faktiske adferd, fremfor å basere modellene på en grunnleggende antakelse om at menneskelig adferd alltid er rasjonell.

I dag interagerer mennesker med komplekse intelligente systemer på flere og flere områder, fra Smart Living og IoT (Internet of Things) til nasjonal etterretning og sikkerhet. Samtidig interagerer også intelligente systemer med andre intelligente systemer.

Slike komplekse interaksjoner forutsetter at de enkelte aktørene — både mennesker og intelligente systemer — kan ha tillit (eller velge ikke å ha tillit) til de aktørene de interagerer med. For å oppnå tillit er det viktig at både mennesker og komplekse intelligente systemer kan forstå — samt til en viss grad også forutse — de øvrige aktørenes adferd.

Eksisterende modeller for å forstå og forutse interaksjoner i en slik menneske — teknologi kontekst er i hovedsak bygget på en grunnleggende antakelse om at mennesker tenker og handler rasjonelt. Men menneskers adferd kan ofte bryte systematisk med kravet til rasjonalitet, spesielt når informasjonen man skal behandle er for kompleks eller tiden man har til rådighet er for knapp. I situasjoner som disse, er man ofte ikke i stand til å foreta rasjonelle valg og beslutninger.

Dette er en utfordring fordi det bidrar til å redusere forutsigbarheten og tilliten i interaksjonene mellom mennesker og intelligente systemer. Ved design av intelligente systemer må man derfor ta mer hensyn til menneskers og intelligente systemers faktiske adferd, fremfor å basere modellene på grunnleggende antakelser om at adferden er — eller kommer til å være — rasjonell.

For å oppnå slik tillit forutsettes det følgelig at man studerer aktørenes faktiske adferd systematisk og at (de rasjonelle) modellene designes og oppdateres med pålitelig kunnskap om hva som er menneskers og intelligente systemers faktiske adferd i ulike kontekster — det vil si, hvordan de faktisk agerer, i motsetning til hvordan de ideelt sett burde agere.

I artikkelen Behavioural Computer Science: an agenda for combining modeling of human and system behaviours, publisert i det internasjonale vitenskapelige tidsskriftet Human-Centric Computing and Information Sciences hos Springer verlag, forklarer vi hvorfor det er viktig å utvikle modeller som tar hensyn til menneskers og intelligente systemers faktiske adferd, fremfor å basere modellene på antakelser om at adferden er — eller kommer til å være — rasjonell.

Vi viser også hvordan en eksisterende interaksjonsmodell kan oppdateres med data om faktisk adferd for å oppnå mer pålitelig kunnskap — og dermed mer tillit og større forutsigbarhet — i interaksjonen mellom mennesker og intelligente systemer.

Artikkelen inngår i prosjektene Oslo Analytics og IoTSec ved Universitetet i Oslo, hvor ett av formålene er å utvikle nye vitenskapelige modeller og metoder for trusselvurderinger og etterretningsanalyse i grenseflaten mellom menneske og teknologi. Kunnskapen er imidlertid også relevant i andre kontekster hvor mennesker og intelligente systemer interagerer.

Hvis du vil vite mer om dette temaet, kan du lese samt laste ned en pdf-versjon av vår fagfellevurderte originalartikkel helt gratis via denne lenken: https://doi.org/10.1186/s13673-018-0130-0

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *