Presse, pressefotograf, medier, journalister, illustrasjonsbilde.

ChatGPT gjør god journalistikk viktigere enn noen gang

Da OpenAI lanserte språkmodellen ChatGPT før jul, var det mange som stilte seg det samme spørsmålet: Kommer ChatGPT til å ta fra meg jobben? Det gjaldt ikke minst journalister. Svaret er tvert imot at ChatGPT gjør god journalistikk viktigere enn noen gang.

Publisert

Tjenester som ChatGPT, Microsofts Bing og Googles Bard spytter ut velformulerte setninger om det meste på sekunder. Saker en journalist må sitte i timevis med research og ordkløyving for å skrive, lager disse modellene på kortere tid enn journalisten bruker på å hente en kopp kaffe. Er du ikke fornøyd med resultatet, skriver de en ny versjon like fort.

Jeg har selv intervjuet ChatGPT. Den svarte så velvillig og velformulert at jeg ikke trengte å rette på et eneste ord. Men språkmodeller og kunstig intelligens kan ikke erstatte journalister, uansett hvor effektive og velformulerte de er. Selv om modellene blir mye bedre enn de er i dag, vil vi fortsatt trenge journalister. Språkmodellene trenger faktisk god journalistikk for å fungere.

Språklig innavl

Språkmodeller lærer å forstå og skrive språk ved å trene på tekst som allerede er skrevet. Ved å analysere milliarder av tekster fra nettaviser, Wikipedia, bøker, dokumenter og andre nettsider, lærer språkmodellene seg hvordan ulike kombinasjoner av ord har forskjellige betydninger.

Dette er hva Bing kunne fortelle vår journalist om KOM24.
Dette er hva Bing kunne fortelle vår journalist om KOM24.

Når stadig flere nå bruker ChatGPT og andre språkmodeller til å skrive tekster til nettsider, i rapporter og andre dokumenter, vil mer og mer av de tekstene språkmodellene trenes på etter hvert være generert av de samme språkmodellene. Det fører til språklig innavl.

For å unngå språklig innavl, er det derfor viktig med originale tekster, skrevet av mennesker. God journalistikk vil derfor bidra til å utvikle språket modellene baseres på, og kunnskapsgrunnlaget de bruker til å gi oss svarene vi leter etter.

Hallusinasjon

Et kjent problem med språkmodeller er at de hallusinerer. Hvis den ikke finner svaret på det du spør om i informasjonen den har tilgang til, vil den forsøke å sette sammen et svar med den informasjonen den har. Derfor svarer den ofte feil. Et eksempel:

Spør du ChatGPT om hvor høy Holmenkollbakken er, vil den av og til svare 417 meter (tårnets høyde over havet), av og til 134 meter (bakkestørrelsen) og av og til 60 meter (tårnets høyde over bakken). Fordi den ikke finner en tekst som sier eksplisitt hvor høy Holmenkollbakken er, vil den bruke et tall den finner som er knyttet til både begrepet høyde og Holmenkollbakken. Det kan bli nesten riktig, men det kan også bli veldig feil.

Først når en journalist har skrevet om hvor høy Holmenkollbakken er, vil ChatGPT kunne svare godt på det spørsmålet.

Kontekst

Ulik kontekst kan gi den samme setningen vidt forskjellige betydninger. Det er vanskelig for en språkmodell å forstå. Den «forstår» egentlig ingenting. En språkmodell er bare en uendelig rekke med sannsynlighetsberegninger, hvor treningen har lært den å beregne hva som sannsynligvis er det neste ordet i setningen.

Menneskehjernen, derimot, behandler språket helt annerledes. Derfor vil kontekst, tonefall, kroppsspråk og ordvalg påvirke hvordan vi oppfatter betydningen av ordene. En journalist vil velge ord og formuleringer bevisst, ut fra hvilke bilder og følelser hun ønsker at teksten skal skape i leserens hjerne.

Det kan ikke kunstig intelligens. Ikke ennå, i hvert fall.

Powered by Labrador CMS