Skriveoppgave 3

Tore Pedersen Faglig essay (eller ble det fagartikkel?) Samling 3 inkl Faglogg

 

 

 

Kunstig intelligens:

En autonom forlengelse av mennesket?

 

Tore Pedersen

 

 

Kunstig intelligens er et fenomen som er egnet til å frembringe både fascinasjon og frykt. Nyhetsoppslag nasjonalt og internasjonalt, både i aviser og andre medier, vitner om at kunstig intelligens både har nyhetens verdi og offentlighetens interesse. I tillegg er fenomenet også populært å fordype seg i, noe først og fremst engelskspråklige sakprosabøker vitner om, om enn med varierende grad av etterrettelighet og substans, Men hva er kunstig intelligens? Kort fortalt er kunstig intelligens selvlærende systemer som både kan interagere med omgivelsene og lære av interaksjonen med omgivelsene. Slike systemer kan for eksempel brukes til å løse problemer som mennesker ikke er i stand til å løse selv, både fordi maskinen kan behandle et betydelig større informasjonsvolum enn hva mennesker kan, samtidig som den kan prosessere denne informasjonen mye raskere enn hva mennesker kan. Når maskinen i tillegg reprogrammerer seg selv som følge av det den lærer av omgivelsene, kan kunstig intelligens avlaste mennesket i dets daglige gjøremål og derved gjøre livet enklere for mennesket. Slik sett er maskinen en hjelper i den forstand at den utgjør en slags «forlengelse» av mennesket i utførelsen av menneskets aktiviteter.

 

Forlengelsen av mennesket. I «Understanding Media: The Extensions of Man» (1964) beskriver Marshall McLuhan forskjellen mellom et informasjonsinnhold og den formidlingskanalen, altså mediet, som brukes for å kommunisere informasjonsinnholdet. Ett aspekt i McLuhans analyse er at et medium kan forstås som en forlengelse av menneskelige egenskaper og derved også en forlengelse av mennesket som sådan. Skrift er en forlengelse av tanke og tale. Redskaper er forlengelser av armer og bein. Bekledning er en forlengelse av huden. Slik sett kan all teknologi forstås som forlengelser av mennesket. Et annet aspekt i McLuhans analyse er at ethvert medium har en tendens til å lede oppmerksomheten bort fra selve det innholdet som mediet formidler. Derved kan mediet som sådan komme til å overta forståelsen av det som er det egentlige innholdet som medier formidler. Mediet blir slik sette selve innholdet («the medium is the message») (McLuhan, 1964).

 

Teknologiens egenskaper. I «Technopoly: The Surrender of Culture to Technology» (1992) foretok Neil Postman en analyse av teknologi som på mange måter kan sees i lys av McLuhans analyse, nemlig den at alle redskaper og all teknologi har iboende egenskaper som gjør dem spesielt godt egnet til å utføre helt bestemte oppgaver. Derved oppstår det også en tendens eller en slags «iboende trang» i redskapene og teknologien til å fremme utførelsen av nettopp disse oppgavene. Postman argumenterte for at, på samme måte som den iboende egenskapen til øksa er å hugge, og knivens egenskap er å skjære, har også avansert teknologi iboende egenskaper som gjør den velegnet til å fremme helt bestemte prosesser og lede til helt bestemte utfall (Postman, 1992). Mens de iboende egenskapene hos enkle redskaper lett lar seg avkode, er disse egenskapene betydelig mer krevende å avkode i den mer avanserte teknologien. Vi glemmer derfor – eller snarere, vi forstår ikke – teknologiens iboende egenskaper og dens tilhørende «trang» til å fremme spesifikke prosesser som leder til spesifikke utfall.

 

Teknologisk autonomi. McLuhans og Postmans analyser er sammenfallende: Teknologi er på den ene siden en forlengelse av mennesket, og presumptivt noe som både er skapt av mennesket og kontrollert av mennesket. Men teknologi kan også, dersom den ikke forstås, tøyles og kontrolleres, komme til å sette sitt eget preg på menneskets forståelse og tolkning av selve det informasjonsinnholdet teknologien er satt til å behandle eller formidle – i menneskets tjeneste. Hvorvidt McLuhan og Postman hadde kunstig intelligens eksplisitt i tankene i sine analyser vites ikke – sannsynligvis er fenomenet også for nytt – men deres analyser kan allikevel bidra til å forstå den kunstige intelligensens iboende egenskaper, nettopp med McLuhans og Postmans analyser av redskaper, medier og teknologi som et bakteppe. Fordi kunstig intelligens er en type teknologi som på mange måter kan komme til å bli autonom – eller som kanskje allerede har blitt det

 

Vitenskapelige tradisjoner. I forlengelsen av McLuhans og Postmans analyser og tolkninger av teknologi som autonome forlengelser av mennesket, vil dagens vitenskapelige litteratur, samt kunnskap om vitenskapelige prinsipper, kunne gi oss ytterligere forståelse av hva som kjennetegner kunstig intelligens og maskinlæring samt hva som i dag er status for anvendelse av denne teknologien. Den vitenskapelige litteraturen på området er i hovedsak fordelt på to ulike vitenskapssyn som hver har sine egne undersøkelsesmetoder for å belyse hva kunstig intelligens er og hva kunstig intelligens kan gjøre. Men ikke minst også hva kunstig intelligens kan være i stand til å gjøre. Mens forskningstradisjonene innenfor humaniora tradisjonelt har beskjeftiget seg med spørsmål som hva kunstig intelligens kan komme til å innebære for menneske og samfunn, har den naturvitenskapelige forskningstradisjonen i hovedsak beskjeftiget seg med å utvikle den teknologien som brukes innen kunstig intelligens, hvor siktemålet først og fremst er å anvende teknologien. En konsekvens av dette er at humaniora ofte har hatt fokus på etiske perspektiver ved kunstig intelligens og hvilke trusler som kan oppstå dersom mennesket mister kontrollen over maskinene og det maskinene gjør (se for eksempel Bostrom, 2014), mens naturvitenskapen motsvarende har hatt et fokus på teknologisk utvikling i et kost–nytte perspektiv, uten å ta etikk og verdier i betraktning på samme måte som det humaniora-tradisjonen gjør. Fordi disse to vitenskapssynene ligger langt hverandre, oppstår det en polarisering av både forskningsinnsats og kunnskapsstatus på området. Forskningen i de ulike tradisjonene er ikke – eller tillates ikke å være – tilstrekkelig helhetlig og «diskursoverskridende». En helhetlig tilnærming som inkorporerer empiri om den faktiske teknologiske utviklingen og den faktiske anvendelsen av kunstig intelligens kombinert med en analytisk tilnærming til hva som kan komme til å bli implikasjonene av kunstig intelligens for menneskelige aktiviteter og samfunnets institusjoner, vil kunne bidra til en enda bedre – og i vitenskapelig forstand sannere – forståelse av fenomenet kunstig intelligens.

 

Vitenskap og verdier. Den eneste måten å tette kunnskapshullet på er altså å innta en tilnærming som både inkorporerer empirisk kunnskap om hva maskinene faktisk gjør og er i stand til å gjøre (naturvitenskap) samt også analytisk kunnskap om hvilke implikasjoner den teknologiske utviklingen kan komme til å bety for menneske og samfunn. I dette ligger både at vi må kombinere ulike typer vitenskapssyn for å forstå hva kunstig intelligens og maskinlæring faktisk er og hva det kan komme til å bli, og at vi i tillegg må balansere både deskriptive og normative tilnærminger til fenomenet. Vi må altså avdekke hva kunstig intelligens faktisk er, herunder altså hvordan den reelt sett brukes i dag, samtidig som vi må innta en verdibasert tilnærming til fenomenet og gjøre oss opp en mening om hva vi vil tillate at kunstig intelligens gjør. Hva kunstig intelligens kan gjøre og hva kunstig intelligens bør gjøre, er ikke nødvendigvis sammenfallende.

 

Kognitiv vitenskap. Én konkret måte å tette kunnskapshullet på, er å ta utgangspunkt i vitenskapen om menneskelig tenkning og anvende denne både som en forståelseshorisont og som et pedagogisk grep for lettere å kunne formidle kunnskap også om hvordan maskiner «tenker».  Innen kognitiv vitenskap finnes både empirisk kunnskap om hvordan mennesker faktisk tenker og interagerer med omgivelsene i ulike kontekster, samt også klassiske prinsipper om hva som utgjør gyldige slutninger og resonnementer – altså hvordan mennesker ideelt sett bør tenke når komplekse problemer skal løses. Uavhengig av om det er mennesker eller kunstig intelligens som observerer, vurderer, trekker slutninger og konkluderer – enten på egenhånd eller i interaksjon med omgivelsene – må både mennesker og maskiner forholde seg til gyldige måter å gjøre dette på. Kognitiv vitenskap kan gi oss innsikt i hvordan maskiner «tenker», gjennom først å forstå hvordan mennesker tenker, ettersom både maskiner og mennesker nødvendigvis må forholde seg til de samme vitenskapelige prinsippene for gyldig tenkning.

 

To måter å tenke på. Kognitiv vitenskap kan fremvise en empiri som gjennom mange år både beskriver og forklarer hvordan mennesker tenker – og mer spesifikt hvordan mennesker foretar en bedømmelse og en vurdering av et fenomen. Innenfor den delen av den kognitive vitenskapen som beskjeftiger seg med bedømmelser og vurderinger – og mer spesielt med feilbedømmelser og feilvurderinger, er det vanlig å operere med en modell, for øvrig solid forankret i titalls år med empiri, som deler inn kognisjon i to ulike kognitive prosesser: System 1 og System 2 (se for eksempel Kahneman, 2003). Mens System 1 er automatisert tenkning som foregår uten at vi har bevisst oppmerksomhet om at vi foretar en bedømmelse eller en vurdering, er System 2 den ikke-automatiserte tenkningen som vi er bevisst oppmerksomme på at vi foretar. Intuitiv tenkning er den vanlige betegnelsen på kognisjon foretatt i System 1, mens rasjonell tenkning er den vanlige betegnelsen på kognisjon foretatt i System 2.

 

Automatisk tenkning. Når vi foretar bedømmelser og beslutninger i de fleste hverdagssituasjoner, foregår dette ofte uten at vi er bevisst oppmerksom på at vi gjør det. Hjernen har en tendens til å ville aktivere System 1. Vanligvis er dette hensiktsmessig, fordi vi filtrerer ut stimuli og data som ikke er relevante for den bedømmelsen vi skal foreta akkurat nå, og lar hjernen prosessere relevante data automatisk. Dette går nærmest av seg selv. Problemet er at vi har en tendens til å aktivere system 1 også i situasjoner hvor vi i stedet skulle ha aktivert system 2, for eksempel i situasjoner hvor vi har lite kunnskap om det vi skal bedømme eller i situasjoner hvor vi har for liten erfaring til å foreta bedømmelsen automatisk og ikke-bevisst. I en slik kontekst vil en aktivering av System 1 lett kunne føre til en feilbedømmelse, mens en aktivering av System 2 lettere ville kunne lede til en korrekt bedømmelse. En slik feilbedømmelse basert på «feil» aktivering av System 1, kalles vanligvis et kognitivt bias. Et bias er en feilbedømmelse som er systematisk, hvilket betyr at den ikke oppstår tilfeldig, men er uttrykk for en systematisk tendens til å feilbedømme noe. Et kognitivt bias er forårsaket av spesifikke psykologiske mekanismer som aktiveres når vi skal foreta bedømmelser under betingelser som er usikre, altså når vi ikke har tilstrekkelig informasjon til å foreta bedømmelsen eller når informasjonen er for kompleks til at vi klarer å foreta bedømmelsen. Disse psykologiske mekanismene kalles heuristikker og den spesielle egenskapen til heuristikkene er at de aktiveres uten at vi er klar over det – altså ikke-bevisst.

 

Heuristikker som bias-drivere. De psykologiske mekanismene som utgjør heuristikkene deles vanligvis inn i to: Tilgjengelighet og Representativitet. Det som kjennetegner disse to heuristikkene er at de aktiveres under betingelser som er preget av usikkerhet, og de aktiveres uten at vi har bevisst oppmerksomhet om hva som foregår. Tilgjengelighetsheuristikken forleder oss til å tro at informasjon som ligger lett tilgjengelig i hjernen, altså som det er lett å få umiddelbar tilgang til, også representerer det er vanlig eller det som forekommer ofte. Ettersom det er lettere å finne frem til ord som begynner på A enn ord som har A som tredje bokstav, er det lett å tro at ord som begynner på A forekommer oftere enn ord som har A som tredje bokstav (se for eksempel Gilovich, Griffin & Kahneman, 2002). Representativitetsheuristikken forleder oss til å foreta en bedømmelse av ett fenomen ut fra overflatiske og ikke-substansielle likheter med et annet fenomen. Hudfarge, bekledning og kultur-kjennetegn er eksempler på en tilsynelatende likhet som, når den hos noen mennesker oppstår sammen med andre egenskaper, for eksempel det å være kriminell, kan forlede oss til å foreta en feilbedømmelse av et annet menneske hvor denne andre egenskapen (for eksempel det å være kriminell) ikke er tilstede. Dersom vi får feedback på feilbedømmelsen, altså hvis vi får informasjon som korrigerer feilbedømmelsen, er det sannsynlig at det foregår læring, slik at en fremtidig bedømmelse kan komme til å bli mer korrekt. Men dersom vi ikke får slik feedback vil feilbedømmelsene våre ikke bli korrigert og de kan derved vedvare og opptre i andre situasjoner, noe som innebærer at vårt System 1 ikke blir tilstrekkelig kalibrert mot virkeligheten. Derved lærer vi dessverre også å foreta nye feilbedømmelser.

 

Tenkning og læring henger sammen.  Når vi har oppmerksom bevissthet om vår tenkning, foretar vi det Kahneman (2003) kaller rasjonell tenkning. Når vi ikke har oppmerksom bevissthet om vår tenking, foretar vi det vi kaller intuitiv tenkning. Disse to måtene å tenke på, henger også sammen med måten vi lærer på. Som små barn får vi liten eller ingen formell språkopplæring og vi har heller ikke bevisst oppmerksomhet om at vi lærer et språk. Derved lærer vi språket intuitivt og i interaksjon med omgivelsene. En slik innlæring har mye til felles med intuitiv tenkning i System 1. Det er også flere andre ting vi lærer intuitivt, blant annet hvordan vi forstår og tolker den sosiale verdenen som er rundt oss. Denne måten å lære på, henger sammen med tenkning i den forstand at vi også tenker intuitivt. Tenkning henger altså sammen med læring. Når vi i hverdagslige situasjoner foretar bedømmelser av verden rundt oss, foregår dette ofte som intuitivt tenkning, automatisk og uten bevisst oppmerksomhet. Når vi foretar bedømmelser, er disse basert på hva vi har lært. Intuitiv læring er beslektet med intuitive bedømmelser. En vanlig betegnelse på slik intuitiv læring er implisitt læring (implicit  learning without conscious awareness) (Frensch & Runger, 2003). På den annen side er det også mye vi lærer ved å ha bevisst oppmerksomhet om det vi lærer og ikke minst det at vi er oppmerksomme på at vi er i en læringsprosess. Læring i formelle kontekster er basert på bevisst oppmerksomhet. I motsetning til barnet som lærer språk intuitivt, kan det være at vi som voksne deltar på et språkkurs. Da er vi i en kontekst hvor vi er bevisst på at vi skal lære. Vi pugger fremmedartede verb-bøyninger og vi lærer å bruke fremmedartede setningsstrukturer. Da må vi ha bevisst oppmerksomhet om det vi gjør, og vi foretar det vi gjerne kan kalle bevisst og oppmerksom læring. Denne prosessen ligner på det vi gjør når vi foretar bedømmelser og beslutninger ved hjelp av rasjonell tenkning i System 1. I tillegg til at vi har bevisst oppmerksomhet om prosessen vil det gjerne også være en tydelig feedback på om vi faktisk har lært det som er forventet at vi skulle lære. Vi lærer slik at vi skal kunne bruke språket korrekt og unngå feil.

 

Enkle maskiner og komplekse maskiner. For å forstå hva maskiner kan gjøre, må man altså først forstå hvordan mennesker tenker, for maskinene er først og fremst ment å skulle gjøre ting som mennesker burde kunne gjøre, eller som man skulle ønske at mennesker var i stand til å gjøre, men som mennesker enten ikke har mulighet til å gjennomføre på grunn av kravet til å løse problemet på kort tid, eller som mennesket ikke er i stand til å gjøre på grunn av kompleksiteten i problemet. Den kognitive vitenskapen, med sin empiri om hvordan mennesker faktisk foretar bedømmelser, sammenhold med klassiske vitenskapelige prinsipper om hva som utgjør en gyldig bedømmelse (altså en gyldig slutning) er egnet til å belyse hvordan maskiner prosesserer informasjon og foretar «bedømmelser» som underlag for en beslutning som enten foretas av maskinen selv, eller som formelt foretas av et menneske etter en gjennomgang av maskinens «forslag». Maskiner kan være «enkle», hvilket vil si at de forholder seg til forhåndsdefinerte instruksjoner og aldri fraviker disse instruksjonene når de skal behandle informasjon, finne frem til bestemt informasjon i et datasett eller foreta en vurdering av dataene. Enkle maskiner er fullstendig tro mot de algoritmene (instruksjonene) de er programmert med og prosesseringen er transparent: det er altså mulig både å forstå samt ha fullstendig innsyn i hva maskinen gjør med de dataene den behandler. Men maskiner kan også være «komplekse». Da kalles de intelligente, altså kunstig intelligens. Dette innebærer at maskinen er programmert med algoritmer (instruksjoner) som lar den «få lov» til å interagere med omgivelsene (altså med data) og som et resultat av denne interaksjonen også får lov til å lage nye algoritmer eller justere eksisterende algoritmer etter å ha «lært noe nytt» av omgivelsene.

 

Det menneskelige i maskinen. Det er vanlig å anta at en maskin er ufeilbarlig, sammenlignet med mennesker, som vi vet at nettopp ikke er ufeilbarlige. Men nylig har det blitt stilt spørsmål ved den antatte ufeilbarligheten (se for eksempel USACM, 2017), blant annet som følge av den oppdagelsen at maskiner – noen bare av og til, mens andre ofte – kan gjøre ukorrekte vurderinger eller også behandle sitt datamateriale på en «urettferdig» måte. Når maskinen foretar mulig diskriminerende vurderinger, for eksempel av en potensiell låntakers antatte evne til å betjene sitt boliglån, eller når maskinen vurderer sannsynligheten for at en mistenkt i en straffesak er skyldig, gitt flere bevis som hver for seg er svake og ikke utslagsgivende, er det viktig å forstå hva som forårsaker «urettferdige» utfall – eller feilbedømmelser, Én av årsakene til at slike feil kan oppstå er at en maskin alltid er initialt programmert av et menneske. Det er alltid en programmerer som skaper den initiale algoritmen som maskinen bruker i løsningen av sine oppgaver. Derved kan et menneskes feilbedømmelser (bias) enkelt overføres til maskinens algoritme, noe som innebærer at maskinen vil komme til å foreta tilsvarende feilbedømmelser som det programmereren gjør. En annen viktig årsak til maskinens feilbedømmelser er at maskinen kan lære om verden i interaksjon med begrensede omgivelser som ikke nødvendigvis er representative for den større sosiale verdenen. Sagt på en annen måte lærer den fra et utvalg som ikke representerer den større populasjonen. Både overføring av bias fra programmerer til enkle maskiner samt komplekse maskiners (altså kunstig intelligens) egen læring fra interaksjonen med ikke-representative omgivelser (data) er eksempler på at maskiner ikke nødvendigvis er mer ufeilbarlige enn mennesker, selv om maskinene er betydelig raskere og kan prosessere uendelig større mengder informasjon enn hva mennesket kan. I det første tilfellet er det et bias som er direkte overført fra menneske til maskin. I det andre tilfellet et bias som oppstår i maskinens egen læringsprosess med omgivelsene. Begge tilfeller er eksempler på at tenkning og læring foregår på samme måte, uavhengig av om det er et menneske eller en maskin som foretar bedømmelsen om noe i den sosiale verden eller som lærer av den sosiale verdenen. Selv om mennesker og maskiner på mange måter er grunnleggende forskjellige, er de allikevel like i ett henseende: Både maskiner og mennesker foretar vurderinger som får konsekvenser både for enkeltmennesker og for samfunnet. Da er det viktig at vi både forstår hva maskinene faktisk gjør og hvordan de kommer frem til de vurderingene de foretar – samt også at vi diskuterer hva vi ønsker at maskinene skal få lov til å gjøre. De «indre» prosessene i kunstig intelligens, altså maskinens egen programmering av sine algoritmer, blir allerede i dag betegnet som en «svart boks» som ikke er tilstrekkelig transparent til å gi innsyn i hvordan maskinlæringen faktisk foregår. Derved blir det også uklart hvem som til syvende og sist er ansvarlig for de vurderingene maskinen gjør – maskinen selv eller mennesket (organisasjonen) som eier den?

 

I en slik kontekst er det nødvendig å mobilisere en helthetlig og omforent forskningsinnsats som inkluderer både humaniora og naturvitenskap – gjerne med den kognitive vitenskapen som samfunnsvitenskapelig «vertskap» for satsingen. Uten en slik helhetlig tilnærming vil McLuhans anlayse av medier som autonome forlengelser av innhold og Postmans analyse av teknologi som autonom forlengelse av mennesket, vil analysene raskt kunne omfatte også kunstig intelligens som en tilsvarende autonom forlengelse.

 

Referanser

 

Association for Computing Machinery: US Public Policy Council (USACM) 2017. Statement on Algorithmic Transparency and Accountability.

Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies. United Kingdom, Oxford: Oxford University Press.

Frensch, P. A., & Runger, D. (2003). Implicit Learning. Current Directions in Psychological Science, 12, pp 13-18.

Gilovich, T., Griffin, D. & Kaheman, D. (2002). Heuristica and Biases: The Psychology of Intuitive Judgment. United Kingdom, Cambridge: Cambridge University Press.

Kahneman, D. (2003). A Perspective on Judgment and Choice: Mapping Bounded Rationality. American Psychologist, 58, pp 697-720.

McLuhan, M. (1964). Understanding Media: The Extensions of Man. USA: MIT Press.

Postman, N. (1992). Technopoly: The Surrender of Culture to Technology: US, New York: Knopf, 1992.

 

 

 

Tore Pedersen Faglogg Samling 3

 

 

Til samling 3 har jeg valgt å skrive en tekst som har fagessay som sjangerformat, men med en viss risiko for at jeg ikke har klart å få til tilstrekkelig med essayistiske kjennetegn, selv om jeg har forsøkt å bruke essayistiske kjennetegn som for eksempel å problematisere fremfor å konkludere, samt å bruke flere innfallsvinkler til problemet, eller det å legge opp til en eller flere «konflikter» som senere forsøkes mediert.  Når jeg har landet på at det er et essay og ikke en artikkel, vil rasjonalet for dette fremgå tydeligere lenger frem i fagloggen. En kan vel nesten (dessverre) si at fagloggen kanskje er mer essayistisk enn selve fagteksten……

 

Det jeg i det store og hele ønsker å skrive om i hele programmet, er et overordnet tema jeg er veldig opptatt av, nemlig kuratering av kunnskap. Med begrepet kuratering av kunnskap forstår og tolker jeg både hvordan kunnskap genereres, hvordan kunnskap brukes og hvordan kunnskap formidles. I dette er også vitenskapsfilosofisk forståelse en viktig komponent, altså «kunnskap om kunnskap».

 

Som konkret tema til akkurat denne oppgaven, under dette overordnede temaet kuratering av kunnskap, som jeg håper å kunne jobbe med gjennom programmet, har jeg valgt å skrive om kunstig intelligens, eller mer spesifikt hva som kjennetegner «maskiner» og deres prosessering av informasjon, til forskjell fra – men av og til også likt med – menneskets prosessering av informasjon. Men jeg strever litt med å få ordentlig tak på formatet. Det jeg strever spesielt med, er for det første å avgrense tematikken (hvor bredt skal jeg skrive, uten at teksten blir så knapp at den ikke engang gir en forståelig oppsummering innenfor hvert del-tema), og dernest hvordan jeg skal klare å formidle «tekniske» begrep på en forståelig måte. Min modelleser, jf Tønnessons (2012) beskrivelse av den tenkte leseren, er egentlig en person som befinner seg et sted mellom det å være «fagfelle» og det å være «allment opplyst leser». Min tilnærming til teksten er at kunstig intelligens er et begrep og et fenomen som – selv om vi «tillater» at definisjonene av fenomenet er både mange og sprikende – ikke er tilstrekkelig forstått, og at fenomenet studeres for «snevert» av de ulike forskningstradisjonene. Man kunne kanskje sagt at kunstig intelligens som fenomen mangler en «teori» eller i alle fall at det mangler en helhetlig diskurs som er «bredere» og kanskje diskursoverskridende (eller fagtradisjonsoverskridende). Men dette er kanskje heller ikke en helt korrekt beskrivelse, tror jeg. Relevante diskurser finnes det jo flere av, selv om de liksom er litt for «spesialiserte». Med diskurs i denne sammenheng, mener jeg ikke diskursanalyse som del av analyse av språklige handlinger, men forstår snarere diskurs som den forskningssamtalen som befinner seg under et paradigme i en fagtradsijone: Naturvitenskap og humaniora jobber under ulike paradigmer (for eksempel hvorvidt virkeligheten kan avdekkes eller om den må fortolkes), mens under hvert av paradigmene er det ulike diskurser, eller samtaler, altså mer konkrete arbeidstradisjoner som beskjeftiger seg med mer avgrensede forskningsspørsmål sett fra et mer spesifikt teoretisk perspektiv.

 

Det er krevende å skrive en vitenskapelig tekst som dels retter seg mot fagfeller innen én forskningstradisjon (eller fagtradisjon, for eksempel informatikk) og dels mot fagfeller innen en annen forskningstradisjon (eller fagtradisjon, for eksempel psykologi). Fordi jeg ønsker å skrive en slik tekst (selv om det å lykkes med noe slikt selvsagt er noe helt annet) vil jeg dels måtte bruke begrep fra den ene og dels fra den andre tradisjonen, samtidig som begrepene også vil måtte forenkles og eksemplifiseres, nettopp fordi én leser typisk vil være fagfelle (ekspert) i den ene tradisjonen og allment opplyst leser (ikke-ekspert) i den andre fagtradisjonen. Og vice versa. Enda verre blir det naturligvis hvis teksten i tillegg retter seg mot allment opplyste lesere som ikke er fagfeller (eksperter) i noen av forskningstradisjonene. For å treffe også disse leserne vil jo tematikk fra begge forskningstradisjoner måtte forenkles og eksemplifiseres, noe som innebærer at fagfellene (ekspertene) og redaktørene i tidsskriftene mest sannsynlig vil synes at teksten er for «lett» og ikke egentlig frembringer ny kunnskap i det hele tatt.  Altså at teksten er mer populærvitenskap enn egentlig vitenskap, for å bruke begrepene fra Tekstens autoritet, av Brodersen med flere (2007).

 

Som et digresjonselement i teksten her, vil jeg si at jeg strever litt med å bruke de «riktige» tekstlige virkemidlene. Jeg befinner meg muligens i det Morken Andersen i sin Skriveboka (2008) kaller det «ytterste rollelaget» i forståelsen av språket, hvor kjennetegnene er et saksorientert og upersonlig språk, selv om jeg selvsagt forsøker å komme meg lenger «inn» i modellen for å gjøre språket mer levende og litterært. Min tolkning hittil er at det er mer realistisk å nærmer seg det midterste laget i friskrivingen og i fagloggen. Det innerste laget, det somatiske, ser ikke ut til å være egnet for de temaene jeg beskjeftiger meg med, de tekstlige uttrykkene disse temaene kan resultere i, samt den typiske leserens konvensjonsforventninger. Men når det er sagt: Det innerste somatiske laget i modellen, hjelper meg med å forstå hva som kan være årsakene til skrivesperre og at jeg ikke får helt «tak» på materialet.

 

Opplevelsen av «sneverhet» vil kanskje komme til å bli mer og mer vanlig innenfor flere fagtradisjoner, altså at det er mange som enten allerede opplever dette, eller som vil komme til å oppleve det. Etter hvert som hver fagtradisjon blir mer og mer spesialisert, og borer mer og mer i dybden på hvert sitt fagfelt, vil det være behov for noen (andre) som kan skrive «på tvers» av fagtradisjonene, forutsatt at fagtradisjonene (altså alle aktørene, det vil si forskerne og formidlingskanalene som kuraterer diskursene i fagtradisjonene) også ønsker dette. Hvis ikke, vil det være umulig. Da tenker jeg eksempelvis ikke på kritisk-systematiske litteraturstudier innenfor en spesifikk fagtematikk, hvor formålet er å identifisere forskningsfronten, og hvor formidlingen er rettet mot fagfeller, men kanskje heller en «sammensmelting» av ulike fagtradisjoner for å bidra ikke bare med ny kunnskap, men også en annerledes og ikke-konvensjonell kunnskap.

 

Brodersen med flere beskriver i boken Tekstens autoritet, hvordan tekstlig formidling av kunnskap får ulike tekstlige uttrykk, avhengig av om temaet i teksten formidles til fagfeller gjennom vitenskapelige formidlingskanaler, eller om det formidles til en mer allment interessert leserkrets, uten inngående dybdekunnskap om temaet. Skriving til fagfeller har til hensikt å formidle ny og original kunnskap som bidrar til å bygge vitenskapen innenfor et bestemt fag og en bestemt diskurs innen faget. Fordi leseren allerede er opplest på temaet, herunder både dets kompleksitet og dets dybde, vil teksten nødvendigvis bli mer «teknisk». Fordi teksten er skrevet til fagfeller vil det ikke være hensiktsmessig å forenkle den eller eksemplifisere den på samme måte som man ville gjort dersom man skrev til et mer allment leserpublikum. En formidling til fagfeller vil være i format av vitenskapelig tekst, mens en formidling til et allment publikum vil være i format av en populærvitenskapelig tekst. Vitenskapelige tekster formidler ny og original kunnskap, mens populærvitenskapelige tekster syntetiserer eksisterende kunnskap og gjør denne tilgjengelig for en bredere leserkrets utenfor den vitenskapelige fagtradisjonen og diskursen. Når jeg sammenholder denne inndelingen av tekstens formidlingsegenskaper med Tønnessons beskrivelser av den typiske modelleseren i hans bok Hva er sakprosa, hvor han betoner viktigheten av å operere med en tenkt leser og hva slags forutgående kunnskap den tenkte leseren har om temaet, er det hensiktsmessig å operere med en fagfelle som modelleser av en vitenskapelig tekst som formidler ny og original kunnskap, mens når teksten skal syntetisere eksisterende kunnskap og gjøre denne kjent for et allment publikum, vil modelleseren typisk være en person som ikke er fagfelle, men som interessert i temaet. Slik sett kan modelleseren av en populærvitenskapelig tekst både være politikere, myndigheter og annen offentlige forvaltning, eller også et allment opplyst leserpublikum søm ønsker mer kunnskap av god kvalitet.

 

En annen side ved vitenskapelige tekster, er i hvilken grad de hovedsakelig er problematiserende eller konkluderende. I følge Brodersen med flere, vil en vitenskapelig tekst som problematiserer den konvensjonelle kunnskapen som eksisterer innenfor en faglig tradisjon og diskurs, og for eksempel argumenterer for at fagdiskursen har en mangel, bli kategorisert som et vitenskapelig essay. Mens en vitenskapelig tekst som for eksempel frembringer ny empiri for å vise hvordan eksisterende teorier kan ha forklaringskraft også innenfor denne nye empiriske konteksten, og slik sett styrke eller utvide teorien, vil være konkluderende i sin form. En slik konkluderende tekst vil i følge Brodersen med flere bli kategorisert som en vitenskapelig artikkel.

 

Både mens jeg planlegger skrivingen og mens jeg skriver, føler jeg at det er «noe» som mangler, som gjør at jeg ikke helt får til kalibreringen mot Brodersens og Tønnessons beskrivelser. Jeg klarer ikke å sette fingeren på hva som mangler, men opplevelsen av mangel er der allikevel. Det er mulig jeg befinner meg i en situasjon som kan passe med det Morken Andersen (2008) kaller musene, hvor min opplevelse passer godt med «danseren». Hvis jeg forsøksvis skal påkalle de øvrige musene for å forstå dette bedre, kan det være at det jeg opplever som en mangel er å få pinpointet distinksjonen mellom en vitenskapelig tekst og en faglig tekst, for eksempel slik forskjellen mellom begrepene vitenskapelig og faglig fremkommer i et tidsskrift som Sykepleien eller Tidsskrift for den Norske Lægeforening, hvor det skilles mellom forskningsartikkel og fagartikkel. Hos disse tidsskriftene vil en forskningsartikkel typisk frembringe ny kunnskap, mens en fagartikkel syntetiserer eksisterende kunnskap. Begge typer artikler er fagfellevurdert, men bare den første frembringer ny og original kunnskap. Jeg klarer ikke helt å plassere disse journalene og deres artikler i det faglitterære pensumet, men jeg slår meg foreløpig til tåls med at disse tidsskriftene ikke opererer med samme taksonomi som det Brodersen med flere gjør i boka Tekstens autoritet. En foreløpig løsning, for ikke å fortape meg i detaljer om sjanger, er å foreløpig tolke journalenes fagartikkel som noen det samme som Brodersens populærvitenskapelige essay, mens journalenes forskningsartikkel er det samme som Brodersens vitenskapelige artikkel. Slik sett er ikke vitenskapelig essay tilstrekkelig dekket. Hvordan dette vil slå ut for en som sender inn en tekst til et vitenskapelig tidsskrift med fagfellevurdering, vil være avhengig av den fagtradisjonen og de diskursene det konkrete tidsskriftet kuraterer.

 

Kuratering av kunnskap forutsetter etter mitt syn også at man forstår de ulike vitenskapsfilosofiske dimensjonene ved kunnskap. Jeg tenker blant annet på hva slags fysiske eller sosiale fenomen som vi anser at eksisterer samt hvordan vi oppnår kunnskap om det vi anser at eksisterer, altså hvordan vi går frem for å fremskaffe kunnskap om et bestemt fenomen. For å sette dette vitenskapsfilosofiske underlaget for kunnskap inn i en faglitterær kontekst, opplever jeg at det er meningsfylt for meg å sammenligne de ulike vitenskapsfilosofiske ståstedene med Askeland og Maagerøs (2013) beskrivelser i kapitlet Tekstkulturer i Askeland og Aamotsbakkens redigert bok Syn for skriving, om hvordan de ulike tekstkulturene innenfor ulike vitenskapelige tradisjoner skiller seg ad. Når jeg leser Askeland og Maagerø med et forsøksvis «vitenskapsfilosofisk» blikk, forstår jeg det de skriver som et uttrykk for at ulike vitenskapsfilosofiske tradisjoner har ulike tekstlige uttrykk, hver med sine spesifikke kjennetegn. Det som i forlengelsen av dette er spesielt interessant, er hvorfor det er ulike tekstlige uttrykk innen de ulike vitenskapstradisjonene. Hvis jeg sammenholder de to ulike tekstkulturene som beskrives med de to ulike vitenskapelige tradisjonene humaniora og naturvitenskap  synes jeg det fremstår tydelig at de to vitenskapstradisjonene har ulike kriterier for å fastslå hva som anses å eksistere. Mens naturvitenskapen først og fremst har et forhold til hva som eksisterer, som gjør at denne tradisjonen undersøker og avdekker det som «faktisk finnes» (og, jo, det er jo omtvistelig slik at noe faktisk finnes, selv om det kan variere hva som er betydningen eller meningen av det som faktisk finnes), i stor grad uavhengig av ulike tolkninger av fenomenet, har humaniora et forhold til det som faktisk finnes, som går ut på at det som finnes ikke kan avdekkes, men har en betydning som må fortolkes, eller eventuelt også skapes. Derved kan man si at definisjonene av sann kunnskap eller sikker viten er ulik i de ulike tradisjonene. Mens sann kunnskap avdekkes i naturvitenskapen (jf korrespondanseteorien om sannhet), fortolkes og skapes den i humanioratradisjonen (jf for eksempel koherensteorien om sannhet). Denne forskjellen kommer til uttrykk både gjennom hvordan man tenker om de ulike typene «eksistens» og hvordan man formidler de ulike typene eksistens gjennom språk og i tekst. Askeland og Maagerø argumenterer for at de ulike tekstkulturene kan ha noe å lære av hverandre, og i forlengelsen av dette vil det kanskje være naturlig å tenke at også de to vitenskapstradisjonene som er representert ved sine respektive tekstkulturer, også vil ha noe å lære av hverandre. Min personlige erfaring på området, etter å ha jobbet innenfor ulike vitenskapelige fagtradisjoner, er at forskere ofte er svært spesialisert mot én spesifikk tematikk samt én eller kanskje noen få metoder for kunnskapsgenerering og at disse «diskursrammene» kan innebære at man ofte ikke har tilstrekkelig bevissthet om det vitenskapsfilosofiske paradigmet man arbeider under – eller at det finnes «konkurrerende» paradigmer (både når det gjelder finansiering og definisjonsmakt over fenomenet) som det egentlig kan være mer nyttig å samarbeide med enn å konkurrere med. En slik tilnærming vil innebære at både tekstlige tradisjoner og fagtradisjoner som sådan utvides.

 

Andre refleksjoner jeg gjør meg for å pinpointe retningen på teksten, dreier seg om enten å avgrense temaet mer, for derved enten å gå mer i dybden på deler av tematikken, eller også til å fylle på med eksempler som bedre illustrerer de temaene jeg prøver å beskrive. Den første tilnærmingen vil gjøre at jeg treffer bedre på de vitenskapelige kriteriene, mens den andre tilnærmingen vil bidra til at teksten fungerer bedre som en populærvitenskapelig tekst.

 

Jeg tenkte også at sammenligningen mellom menneske og maskin kanskje også kunne fungere som noe litt «uvant», selv om sammenligningen egentlig hverken er foretatt for å gjøre maskinen mer menneskelig eller for å gjøre mennesket mer «maskinaktig». Den er derimot foretatt for å vise at både mennesker og maskiner nødvendigvis må forholde seg på samme måte til data (verden) og til hvilke kriterier som gjelder for at en slutning skal være gyldig.

 

Samtidig lurer jeg på om både min første «pastisj» (som handler om kategorier og varians) samt mange av de andre tingene jeg er opptatt av, og kommer til å skrive om, kanskje kan utvikles til å bli mitt masterprosjekt? Dette nettopp fordi jeg er opptatt av at ulike profesjoner ofte mangler en grunnleggende vitenskapsfilosofisk forståelse for hvordan de genererer kunnskap, hvordan de bruker kunnskapen og hvordan de formidler kunnskap. Den som foretar bedømmelser og beslutninger innen et fagfelt og slik sett har en yrkesutøvelse hvor vedkommende enten skaper, bruker eller formidler kunnskap, bør for eksempel vite hvor stor grad av usikkerhet eller sikkerhet som finnes enten i selve datagrunnlaget som utgjør kunnskapen eller i metodene som frembringer kunnskapen. Eksempler på at en slik bevissthet er nyttig, finnes mange steder: Både innen min egne to bransjer, beslutningspsykologi og etterretningsanalyse, men også innenfor politi, forsvar, helse og skole, samt for eksempel yrker som driver risikovurderinger, eller yrker som enten foretar utredninger, eller også yrker som foretar prediksjoner om hvordan fremtiden vil komme til å fortone seg.

 

Både for offentlig politikk, myndighetsutøvelse og næringsvirksomhet er det viktig at de menneskene som politikk, myndighet eller næringsvirksomhet utøves på, også er informert om den grad av sikkerhet eller usikkerhet som ligger enten i datagrunnlaget eller i de metodene som har fremskaffet den kunnskapen profesjonenes yrkesutøvelse hviler på. Det jeg er opptatt av er altså en opplyst og informert profesjonsutøvelse, og en tilsvarende opplyst og informert befolkning, både for å motvirke doktrine- og vanetenkning samt for å bidra til god kuratering av kunnskap.