Artikkel
Slik vil Israel påvirke ChatGPT
Israel ønsker å forbedre omdømmet sitt hos amerikansk ungdom. Gjennom et PR-byrå ønsker de å påvirke svarene fra KI-chatboter.
I en kontrakt mellom flere PR-byråer og den israelske regjeringen registrert hos det amerikanske justisdepartementet, kommer det frem at Israel skal bruke over 60 millioner kroner på å forbedre ryktet sitt hos amerikansk GenZ.
Kontrakten ble først omtalt av den amerikanske tenketanken Quincy Institute for Responible Statecraft.
USA er Israels viktigste allierte. Men støtte til landet blant unge er lavere enn i resten av befolkningen, ifølge en undersøkelse fra Harris Polls fra august 2025.
Unge er i større grad også negative til den amerikanske håndteringen av konflikten under Trumps styre. De mener USA bidrar med for mye militær støtte.
Mediestrategien, som beskrives i kontrakten, går blant annet ut på å bruke influensere til å produsere og spre Israel-vennlig innhold, å analysere amerikansk GenZ sine holdninger til Israel og å påvirke svarene fra chatboter som ChatGPT.
For å oppnå det siste punktet skal de blant annet opprette nettsider som vil brukes som bakgrunn for svarene.
Men er det egentlig mulig å påvirke språkmodellene?
Gjøres allerede i dag
I kontrakten står det at denne planen skal motvirke antisemittisme og negative holdninger til Israel.
Morten Goodwin er professor i kunstig intelligens ved Universitetet i Agder. Han mener en påvirkning av språkmodeller er fullt mulig, og at det allerede gjøres av mange.
– I dag er det en utfordring å finne informasjon om produkter. Fordi det skrives så mye positivt på diskusjonsforaer og lignende som er syntetisk, kan vi si at det allerede påvirker brukerne.
Dette er likevel første gang han har hørt om en stat som er åpne om at de ønsker å påvirke modellene.
Å publisere mye innhold er én måte å påvirke svarene, forklarer Goodwin.
– Språkmodellene henter innhold fra internett og mates hele tiden med nye data. Ved å publisere mye innhold på nettet vil det kunne slå ut på svarene vi får tilbake.
Hva som er sant og ikke vil ikke ha så mye å si for hva om modellen trenes opp på det, mener professoren.
– Modellen har ikke noen oppfatning av om det de plukker opp er sant eller ikke, det er bare tekst.
Noen begrensninger
Likevel finnes det noen begrensninger i hva som prioriteres av modellene.
– OpenAI har noe de kaller «guardrails». De vil for eksempel prioritere ulovlig innhold som bombeoppskrifter og lignende lavt i treningsmaterialet. Men vi vet lite om detaljene rundt hvordan selskapene jobber med dette.
– Er det reelt at PR-byråene kan selge dette som en tjeneste?
– Ja, det tror jeg. Jo mer innhold man publiserer, jo bedre vil kampanjen fungere. Så hvis vi ser bort fra moralen her, er dette fullt mulig å gjennomføre.
Ligner på tidligere russisk strategi
Håvard Lundberg i organisasjonen Analyse og Tall har jobbet med hvordan desinformasjon spres på nettet.
Han mener strategien Israel nå legger opp til i USA ligner på Russlands bruk av Pravda-nettverket som ble avslørt tidligere i 2025, men har vært aktivt siden 2024.
Tidligere i år omtalte Faktisk.no, sammen med andre nordiske faktasjekkorganisasjoner, hvordan Russland påvirket svar fra chatboter gjennom et nettverk av falske nettsider.
Hva slags nettsider den Israelske kampanjen bruker i praksis er ikke kjent ennå.
– Det vil være spennende å se om noen etter hvert klarer å avdekke hvilke nettsider de har produsert, forteller Lundberg.
Han forklarer at hensikten med nettsidene ikke er å overbevise publikum direkte, men at innholdet skal lenkes til på åpne sider som Wikipedia og nettforum som Reddit.
På denne måten øker sannsynligheten for at det blir inkludert i treningsgrunnlaget til språkmodellene.
Ifølge kontrakten skal Israels kampanje fordeles over fire måneder. I tillegg til språkmodellene skal de betale influensere for å publisere og dele innhold.
– Må ha gode metoder for å luke ut kunstig innhold
Lundberg tror strategien vil ta tid å få i gang.
– Jeg ville tenkt at kampanjen vil ha langsiktige konsekvenser, men vi vet ikke hva som er målet og hvordan det gjennomføres.
Han mener derfor det er opp til selskapene bak KI-chatbotene å ha gode metoder for å luke ut kunstig innhold, men at de ikke har det i dag.
Tidligere har denne strategien blitt brukt av miljøer med tilknytning til statlige aktører, forklarer Lundberg. Han mener derfor det er en interessant utvikling.
– Når et privat PR-byrå foreslår dette, er det fordi de har fått med seg at det er en strategi som de kan tilby kommersielt. Det er utrolig ubehagelig å tenke på, sier Lundberg.