Artikkel
Israelsk rapport hevder falske profiler skulle påvirke stortingsvalget - flere kontoer er ekte
Cyabra hevder at et nettverk av falske X-profiler gikk til angrep på Jonas Gahr Støre før valget. En av dem tilhører Chris. – Jeg er definitivt et ekte menneske, sier han til Faktisk.
Det israelske selskapet Cyabra har fått mye oppmerksomhet for rapporter som avdekker desinformasjon og angrep med falske profiler i sosiale medier.
I august hevdet Caybra at de hadde funnet et koordinert forsøk på å påvirke det norske stortingsvalget, der falske profiler på plattformen X gikk til angrep på Jonas Gahr Støre.
«269 falske profiler ble identifisert som aktivt spredte store mengder kritisk innhold rettet mot Jonas Gahr Støre i den norske digitale sfæren».
På en side i rapporten har de gitt 12 eksempler på innlegg om Støre skrevet av det Cyabra sier er falske profiler. Når Faktisk undersøker kontoene, er flere av dem ekte og tilhører norske innbyggere.
Faktisk har snakket med dem.
Ahead of Norway’s election on September 8, Cyabra uncovered a coordinated disinformation network targeting Prime Minister Støre.
— Cyabra (@TheCyabra) August 18, 2025
34% of the political conversation came from fake profiles. These coordinated actors were actively discrediting the Prime Minister and amplifying… pic.twitter.com/4EWFcjDCkr
Utga ekte mennesker som falske profiler
Cyabra oppgir å ha noen av verdens største selskaper som kunder. Analysene deres har tidligere blitt omtalt bredt, blant annet av BBC, The Guardian, CNN og The New York Times, som har omtalt rapporter om valgpåvirkning og bot-nettverk.
Men også her hjemme har Faktisk.no, Aftenposten, Morgenbladet og Forskning.no referert til deres rapport om 7. oktober-angrepet i Israel.
Den nyere rapporten som har fokusert på den norske politiske sfæren, ble utgitt 10. august, en knapp måned før valgdagen i Norge, og beskriver et desinformasjonsnettverk med angrep mot statsminister Jonas Gahr Støre.
Cyabra skriver at blant profilene på X (tidligere Twitter) som diskuterte Støre og bidro til å spre et negativt bilde av ham, ble «over en tredjedel av profilene identifisert som falske».
Rapporten viser tolv skjermbilder av eksempler på innlegg fra det Cyabra mener er falske profiler. De har blitt anonymisert, men hvis man trykker på bildene, kommer man rett inn på X-innlegget.
Faktisk.no har undersøkt innleggene og profilene, og finner at minst fire av profilene er ekte.
Det vil si at mennene bak kontoene er de samme som de utgir seg for å være på X. Faktisk.no har snakket med to av dem som bekrefter at de har lagt ut innleggene selv.
Faktisk.no har gjort gjentatte forsøk på å stille spørsmål til Cyabra, men de har ikke besvart henvendelsene.
Fant Chris på 1-2-3
Det første eksempelet på en påstått falsk profil, har både fullt navn og bilde. Et enkelt Google-søk gir kontaktinformasjon til mannen.
Faktisk.no får tak i Chris Vonholm, mannen bak kontoen CVonholm86512. Han bekrefter at kontoen er hans, og at han skrev meldingen Cyabra trekker fram.
– Jeg er definitivt et ekte menneske.
– Har du skrevet til Støre at «du er ikke min representant din patetiske lille mann»?
– Yes, det er riktig.
På spørsmål fra Faktisk.no om hva han tenker rundt at hans profil har blitt flagget som falsk, stiller Vonholm seg undrende.
Han viser til at Cyabra har brukt kunstig intelligens til å avdekke falske kontoer.
– Det sier noe om at den KI-modellen ikke er trent opp veldig bra og at den kanskje prioriterer bort den type politiske, fargede kommentarer. Algoritmer kan sånn sett benyttes for å skape falske narrativ ved at KI eliminerer de bort så de ikke blir en del av datagrunnlaget bak en «ønsket konsensus», sier Vonholm.
Martin er også ekte
Ikke alle profilene var like enkle å identifisere.
Kontoen «Martin» viser ikke navn eller bilde, men eieren har lagt ut bilder fra nærområdet sitt og skriver ofte om sitt lokale fotballag. Profilen gir ingen grunn til å tro at det ikke er en vanlig innbygger som står bak, men kunne Cyabra funnet ham?
Gjennom å se på bilder tatt fra nabolaget og ut av vinduet hans, og sammenligne det med satelittbilder og kart, fant Faktisk.no adressen og navnet hans.
Undersøkelsene tok nærmere en time.
– Jeg kan ikke skjønne hvordan profilen min kan bli sortert som falsk, sier X-brukeren Martin28913120 til Faktisk.no.
Han ønsker å kun gjengis med brukernavn, men Faktisk.no kjenner identiteten hans. Han bekrefter at profilen og tweeten tilhører ham.
Faktisk.no har tatt kontakt med ytterligere to personer som trolig står bak X-kontoer som Cyabra mener er falske. De har ikke besvart våre henvendelser.
Ingen forklaring fra Cyabra
I rapporten er det ikke oppgitt navn på de som står bak.
Faktisk.no har gjentatte ganger forsøkt å få en kommentar fra Cyabras ledelse, uten hell.
Selskapet har fått spørsmål om hvilke undersøkelser de har gjort, når profiler de bruker som eksempel på falske profiler, må kunne kalles ekte.
Faktisk har bedt om å få se den fullstendige listen over kontoer de mener er falske og del av en koordinert kampanje, samt svar på hvilken metodikk som er brukt.
Mangler metodebeskrivelse
En som har lest Cyabra-rapporten, er Eskil Grendahl Sivertsen, spesialrådgiver i Forsvarets forskningsinstitutt (FFI). Hans spesialfelt er sammensatte trusler, med særlig vekt på påvirkningsoperasjoner.
– Min første tanke var at dette var interessant. For jeg kjenner ikke til at andre har kartlagt slike norskspråklige nettverk i tilknytning til norske valg, sier Sivertsen.
– Problemet er at rapporten ikke deler metodene eller definerer kriteriene for hva de regner som en «bot». Uten innsyn i dette kan ikke funnene verifiseres, sier han.
Cyabra har fått lignende kritikk ved ett tidligere tilfelle.
I oktober omtalte den nepalske avisen Kathmandu Post en Cyabra-rapport som mente å ha funnet over 1000 «falske» kontoer på X. Kontoene skulle ha forsterket utsagn som gikk imot myndighetene og aktivt oppfordret til protest.
Rapporten koblet kontoene til de såkalte «Gen Z»-protestene i Nepal i september, der unge demonstrerte mot korrupsjon og sosial ulikhet.
Kritikken ligner Sivertsens: Cyabra er ikke åpne om metode eller verifisering. Eksperter Kathmandu Post har snakket med, peker også på uklare definisjoner av falske profiler.
– Ikke uvanlig med falske positiver
Sivertsen forklarer at man må først og fremst se på oppførselen, ikke bare innholdet, for å avsløre falske profiler. Man leter etter unaturlige mønstre som kan indikere at det er en maskin, og ikke et menneske, som står bak tastaturet.
Det kan for eksempel være at en profil publiserer mange meldinger i løpet av få sekunder, har unormalt høy produksjon, er aktiv hele døgnet over tid eller følger et bestemt atferdsmønster, som for eksempel å alltid reposte meldinger fra de samme profilene med konsekvente tidsintervaller.
– Ved nettverksanalyser ser man etter profiler og grupper av profiler som systematisk deler og forsterker hverandres innhold, selv om de ikke har en synlig relasjon for det blotte øyet, sier han.
Det er ikke uvanlig at det forekommer falske positiver i store analyser, sier FFI-forskeren.
Han forklarer at når forskere leter etter bots, definerer de klare kriterier som profilene må oppfylle for å bli vurdert. Et slikt kriterium kan være antallet meldinger den legger ut i en gitt tidsperiode.
– Hvis grensen settes lavt, for eksempel «over 50 meldinger i døgnet», vil datainnsamlingen kunne fange opp mange vanlige brukere som bare er veldig aktive. Setter man grensen høyt, for eksempel 1000 meldinger, øker sannsynligheten for at profilene er bots, men da fanger man samtidig ikke opp de mer avanserte botene som prøver å etterligne mennesker.
Krever også manuelt, menneskelig arbeid
Sivertsen understreker at kvalitetssikring i forskning er svært tidkrevende. Mens kommersielle aktører kan lene seg på kunstig intelligens, må forskerne ofte gjøre grovjobben selv.
– Vi kan bruke KI som støtteverktøy, men for å kunne vurdere om en enkelt profil er en bot, kreves ofte manuelt, menneskelig arbeid. Man må også overholde krav til personvern og databehandling. Forskning må følge dokumenterbare, vitenskapelige metoder og, i den grad det er mulig med datasett fra sosiale medier, være etterprøvbar.
– Jo flinkere botene er til å etterligne mennesker, desto mer tidkrevende er den manuelle kontrollen for å unngå feil, sier FFI-forskeren.