Artikkel

Usynlig vannmerke kan avsløre KI

Tre av fire KI-assistenter stemplet en falsk Maduro-video som ekte. Kun én kan identifisere vannmerket. 

Dette er en av mange videoer av Maduro som har florert på sosiale medier den siste uken.
Publisert

Lukk

Bygg inn artikkelen

Kopier og lim inn HTML-koden nedenfor på siden der du vil bygge inn denne artikkelen.

Tilpass innebygd innhold







Hva har en video av den nylig bortførte venezuelanske presidenten Nicolás Maduro til felles med et bilde av et ukrainsk par?

Ja, de er KI-genererte, men i motsetning til mye annet innhold, forteller videoen og bildet oss dette selv. 

Ved kun få tastetrykk avsløres videoen av det usynlige vannmerket SynthId.

Sikkert svar 

Videoen av Maduro som går ned flytrappen har flere tydelige tegn på at den er laget med KI. Både ansikter og armer er forvrengte og inkonsekvente. 

Videoen har blant annet blitt publisert flere ganger på TikTok og X.

For å være sikre bruker mange i dag KI-verktøy til å forsøke å finne ut om innhold er ekte, men ofte gir ikke verktøyene og KI-assistentene troverdige eller sikre svar. 

Faktisk.no brukte denne gangen Googles verktøy, Gemini, for å undersøke om den kunne si noe om Maduro-videoen. Da fikk vi et tydelig svar: 

«Vår tekniske analyse fant et digitalt vannmerke (SynthID) i videoen, som bekrefter at den er laget med Googles KI-verktøy».

Også et bilde som påstås å vise et ukrainsk par på to forskjellige tidspunkt, er generert av KI. Bildet har blitt publisert flere steder, blant annet på Instagram og Reddit

Faktisk.no har matet Gemini med begge bildene og får svar om at det ene bildet har en SynthID, mens det andre ikke har det. 

Kun Gemini

Google har nylig utviklet teknologien SynthID, som gjør det mulig å merke og avsløre KI-generert innhold. 

SynthID fungerer ved at et usynlig, digitalt vannmerke blir lagt til i bilder, video, tekst og lyd som er generert eller redigert av Googles egne KI-verktøy. Vannmerket er ikke synlig, men kan spores i etterkant.

Faktisk.no har også testet andre KI-assistenter. Foreløpig klarer verken ChatGPT, Claude eller Grok å identifisere SynthID. 

Alle tre KI-assistentene konkluderer med at videoen trolig er ekte.

Det er altså bare Googles eget verktøy som så langt har klart å oppdage selskapets vannmerke, av de som er testet.

Teknologigiganten er ferd med å utvikle en egen portal som lages spesifikt for å detektere SynthID. 

«SynthID Detector» er under utvikling og foreløpig kun tilgjengelig for noen i mediebransjen i testfasen.

I Norge er NTB tidlig ute med å utvikle teknologi som skal merke hvorvidt medieinnhold er ekte eller uekte.

– Savner en standard

 Teknologien kalles C2PA, som er en slags opprinnelseattest – for å kunne sikre at metadata ikke går tapt eller endres underveis. 

Hva er C2PA?

C2PA står for Coalition for Content Provenance and Authenticity. 

Det er et verktøy som skal gjøre det mulig å dokumentere hvor digitalt innhold kommer fra, og hvordan det har blitt endret. 

C2PA skal ligge i metadata til bilder, lyd, video og tekst. Denne metadataen viser opphav, hvilke verktøy som er brukt og hvilke endringer som er gjort underveis i prosessen. 

C2PA har som mål å gjøre det lettere å skille ekte innhold fra manipulert eller KI-generert innhold.

Ifølge Erlend Aas, prosjektleder for visuell teknologi i NTB, er det foreløpig flere utfordringer ved teknologien.

Erlend Aas er prosjektleder for visuell teknologi i NTB som jobber med å utvikle C2PA som en markør for bilder.

– Det vi savner er en teknologisk standard på tvers. At alle de store softwareselskapene og de som utvikler maskinvare kan ta i bruk den samme standarden. Det er dit vi må, sier Aas.

Likevel tilføyer han at det er positivt at teknologigiganter som for eksempel Google er i gang med utviklingen. 

– Det begynte jo med at det var mediebransjen som var mest opptatt av verifisering, men nå ser vi at flere ser viktigheten med dette her, sier Aas. 

Se godt etter

Selv om SynthID er et nyttig verktøy, kan teknologien oppdage kun en brøkdel av alt KI-generert innhold. Den fungerer kun på materiale som er laget av Google. Derfor anbefaler Google å bruke flere metoder i kombinasjon. 

En kjent fallgruve ved mye KI-innhold er visuelle feil. Dette er ofte forvrengninger i bilder eller inkonsekvent tekst, unøyaktigheter i små detaljer som hender, tenner eller bakgrunnselementer. Ujevne skygger og belysning, eller gjentakende mønstre som virker unaturlige går også ofte igjen. 

Det kan også være nyttig å bruke omvendt bildesøk for å undersøke om bildet har en kjent opprinnelse eller om lignende bilder allerede finnes på nett. 

I tillegg kan analyser av metadata gi indikasjoner, forutsatt at man har tilgang til den opprinnelige filen. I noen tilfeller kan metadata også avsløre spor etter redigeringsprogramvare.

Lukk

Bygg inn artikkelen

Kopier og lim inn HTML-koden nedenfor på siden der du vil bygge inn denne artikkelen.

Tilpass innebygd innhold