Hvordan bruke kunstig intelligens i media og samtidig beskytte journalister og publikum mot desinformasjon er spørsmål som Olle Zachrison, informasjonssjef i svensk offentlig radio, stiller seg daglig. «Det er mulig at tiden vil komme da vi vil bli mye mer belastet med desinformasjon, og det vil være desto viktigere at vi fokuserer på seriøs journalistikk,» forklarer Zachrison i et intervju for iROZHLAS.cz-serveren.
Del på Facebook
Del på LinkedIn
Å printe
Kopier URL-adressen
Forkortet adresse
Lukk
Olle Zachrison fra svensk offentlig radio. | Foto: Anna Košlerova | Kilde: Tsjekkisk radio
Olle Zachrison
Olle Zachrison er nyhetssjef i Sveriges Radio (SR). Administrerer nyhetsinnhold fra 33 SR-redaksjoner over hele Sverige. Zachrison er medgründer av Nordic AI Journalism Network, som har over 200 medlemmer fra alle nordiske land. Den tjener til å utveksle erfaringer og ideer om hvordan man kan styrke journalistikk med kunstig intelligens på en ansvarlig og transparent måte. Zachrison var en av hovedtalerne på Radio Days Europe-konferansen i Praha.
Vil kunstig intelligens endre journalistikken? Hvordan vil en verden se ut der kunstig intelligens (AI) fungerer sammen med journalister, som den avanserte Chat GPT-modellen?
Det kommer an på media du jobber for. Selvfølgelig vil det være utsalgssteder som vil prøve å generere så mye innhold som mulig slik at innholdet og annonsene deres kan nå. Atter andre vil bruke kunstig intelligens for å underholde seg selv og generere humoristiske tekster eller illustrasjoner.
Jeg jobber i offentlig radio og det er selvfølgelig veldig viktig for oss å vite hva som er mulig bruk av kunstig intelligens, med tanke på objektiviteten og etikken som binder oss.
For radioen vår kan jeg si at på grunn av kvaliteten på AI og alle risikoene for faktafeil den genererer, bruker vi den for øyeblikket ikke til innholdsoppretting. Vi bruker den derfor ikke på noen måte som kan forstyrre eller skape innhold.
Kunstig intelligens har arrestert Donald Trump. «Uten et digitalt spor kan ikke falske bilder gjenkjennes,» sier ekspert
Les artikkelen
På dette tidspunktet er det svært farlig å bruke kunstig intelligens eller innhold generert med Chat GPT til noe annet enn dine egne tjenesteformål.
Kan du utdype? Hvorfor er det farlig å bruke Chat GPT for å lage innhold?
Fordi skaperne av disse modellene selv advarer om ulike feil. Du kan bare ikke stole på det på dette tidspunktet når det gjelder innhold.
På den annen side må vi utforske det, leke med det og utvikle mulige bruksmuligheter. Men når det kommer til seriøst journalistisk innhold, må vi være veldig, veldig forsiktige på dette punktet.
Hvilke interne retningslinjer følger du?
Vi har alltid en ansvarlig redaktør for hver historie vi publiserer. Enhver bruk av kunstig intelligens eller generative AI-modeller (Den generative AI-modellen er en type kunstig intelligens som er i stand til automatisk å lage innhold som tekst, bilder eller musikk (red.) må godkjennes av ansvarlig redaktør.
GPT Chat
Chat GPT står for «Chat Generative Pre-trained Transformer», som er en avansert språkmodell basert på kunstig intelligens. Plattformen er utviklet av OpenAI. Det er en videreutvikling av den originale GPT-modellen, som er designet for å generere naturlig språktekst basert på inndata gitt til den av brukeren. Denne malen er i stand til å utføre mange oppgaver som å svare på spørsmål, oversette tekst fra ett språk til et annet, skrive et essay eller generere kreativt innhold. (Kilde: GPT chat)
Det er en slags kontrollmekanisme som vi har fått på plass i redaksjonen. For eksempel fikk jeg forrige uke et spørsmål fra redaksjonen om vi kunne generere illustrative bilder for podcaster ved hjelp av en av AI-generatorene.
Svaret var at det var avhengig av ansvarlig redaktør. Jeg vil ikke anbefale det på dette tidspunktet fordi vi ikke vet hvem som eier opphavsretten. Vi vet ikke om de genererte bildene er forvrengt på noen måte eller basert på hva de faktisk er generert. Vi vet ikke engang om bildet tilhører oss eller noen andre.
Disse etiske og redaksjonelle spørsmålene er derfor ikke løst. Det er derfor vi eksperimenterer og forsker på det internt.
Noen frykter å miste jobben med kunstig intelligens. Journalistikk er et av feltene som teoretisk sett kan erstattes av kunstig intelligens. Er dette en reell trussel?
Nei, jeg tror vi har gått gjennom en digital transformasjon i tjue år, og det er bare en ny bølge. Digital transformasjon endrer måten vi jobber på. Det endrer arbeidsprosessene våre, det endrer rollene våre.
Vi har ny kompetanse, vi har nye yrker, som analytikere eller grafiske designere.
Nye teknologier gir oss stadig drivkraft til å lære, innovere og bruke det vi har. Det handler ikke om å erstatte oss, men snarere om å gjenoppfinne journalistikken i en verden der vi lever sammen med sofistikert teknologi.
Jeg tror nok kunstig intelligens vil være et verktøy vi kommer til å bruke, men det kan aldri erstatte verdien av å snakke med ekte mennesker, som å gi intervjuer. Det er noe som har tilført menneskelig verdi og ikke kan erstattes.
Hvilke spesifikke verktøy kan kunstig intelligens gi oss?
Først vil jeg skille mellom AI generelt og generative AI-språkmodeller som GPT-chat, som genererer innhold på egen hånd og ingen forstår nøyaktig hva som skjer i boksen svart.
Det er her den skiller seg fra andre typer AI som er mer regelbasert. For eksempel kan verktøyet vi bruker på Sveriges Radio transkribere all lyden vi produserer til tekst. Så nå har vi en automatisk utskrift av alt som dukker opp på lufta.
Det er en enorm endring fordi ordet vårt plutselig er søkbart. Dette er et eksempel på et veldig nyttig AI-drevet verktøy.
I foredraget ditt ga du eksemplet med den norske allmennkringkasteren NRK, som bruker AI til kunstig talesyntese. Hvordan det fungerer?
Ja, våre norske kolleger bruker syntetiske stemmer. Når noen snakker et fremmedspråk på radioen, bruker han altså en syntetisk stemme for å snakke dubbingen, i stedet for å overlate dubbingen til en av journalistene.
Vi har også sett andre allmennkringkastere, som BBC eller RBB i Tyskland, generere automatiske værmeldinger og bruke syntetisk stemme for å gjøre det. Det synes jeg er flott, forutsatt at du har god redaksjonell kontroll på det du holder på med.
Hvilke etiske spørsmål bør stilles når man vurderer bruk av kunstig intelligens?
Det er mange. Hva vet vi om treningsdata for modeller? For eksempel GPT chat eller lignende modeller? De samler inn tekster fra internett og vi vet alle hvor mye absurd og bisarrt innhold det finnes på internett. Vi møter feilinformasjon og feilinformasjon på daglig basis. Og det er det som danner disse mønstrene. Et annet aspekt er selvsagt åpenheten overfor publikum om at innholdet ikke er skrevet av et menneske, men av en kunstig intelligens.
Bildet av paven i hvit frakk er bare begynnelsen. Kunstig intelligens lærer oss å ikke tro på alt vi ser
Les artikkelen
Forstår publikum at AI er involvert i bestemt innhold? Du vet, vi må forklare det på en eller annen måte. Er det nok å uttale ordet AI? Tror du folk forstår det?
Et tredje aspekt gjelder juridiske kompleksiteter, som hvem som eier rettighetene til det genererte innholdet og hvem som er ansvarlig for det. For eksempel, når folk klager på en av artiklene våre, er vårt hovedargument ofte at det er noen bak innholdet som har tatt avgjørelser om hva de skal legge ut og ikke publisere.
Hva om vi overlot disse avgjørelsene til en chatbot? Så vi har ingen argumenter. Det er mange kompleksiteter på dette området. Jeg vil virkelig understreke at jeg ikke er en pessimist. Jeg elsker kunstig intelligens, og bruken av den for journalistikk er flott, men jeg oppfordrer til forsiktighet.
Jeg tror under de rette omstendighetene kan denne teknologien gjøre oss mer relevante og forbedre innholdet vi leverer til publikummet vårt.
Vi har sett mange ganger hvor raskt feilinformasjon kan spre seg. Jeg mener russiske trollfarmer. I noen tilfeller har dette trolig også påvirket valgresultatene. Kan AI være et verktøy for feilinformasjon, ikke bare i den forstand at det blir mer feilinformasjon, men det vil bli mye bedre og bedre målrettet?
Det er en enorm risiko. Og faktisk ble en av våre veteranreportere lurt i forrige uke fordi et bilde av Putins møte med Xi Jinping dukket opp et sted. Bildet viste Putin knelende foran Xi Jinping, og vår reporter var live og lenket til bildet. Vi måtte da beklage og endre informasjonen.
Så selvfølgelig har trollfarmene du nevner et flott nytt verktøy som kan generere hundrevis av tweets, bilder eller hva du måtte ønske, veldig raskt og overbevisende.
Lederen for selskapet som driver ChatGPT bekymrer seg for virkningen av kunstig intelligens på arbeid, valg og feilinformasjon
Les artikkelen
Det kan komme en tid da vi vil bli mye mer belastet med feilinformasjon, og det vil være enda viktigere at vi fokuserer på seriøs journalistikk, der vi kanskje må ta rollen som en eller annen veileder til sannhet for vårt publikum.
Talsmenn for kunstig intelligens sier ofte at akkurat som frykten til de som sa at folk ville slutte å sosialisere seg etter fremveksten av sosiale medier, ikke ble oppfylt, vil ikke verden bli endret av kunstig intelligens. Men så er det argumentet om at kunstig intelligens bruker virkelig avansert teknologi som kanskje allerede overgår menneskelig intelligens. Hva synes du om det?
Vi vil fortsatt puste, vi vil fortsatt le, vi vil fortsatt gå ut med venner, vi vil fortsatt konsumere medier i ulike former. Jeg tror vi nå er midt i en feber drevet av enorm amerikansk forretningsinteresse. Det er nettopp dette vi som seriøse journalister må fortsette å forklare og ikke la oss rive med.
Del på Facebook
Del på LinkedIn
Å printe
Kopier URL-adressen
Forkortet adresse
Lukk
Student. Subtilt sjarmerende bacon-junkie. Spiller. TV-utøver. Frilansmusikkekspert