Falske kontoer har eksistert like lenge som sosiale medier. Men da det nylig ble avslørt at den amerikanske politiske profilen «Emily Hart» – en attraktiv kvinne med tilhørighet til MAGA-bevegelsen – egentlig var en 22 år gammel mannlig medisinstudent fra India, var det likevel sjokkerende for mange.

Dette var ikke bare enda en anonym svindler eller en enkel «catfish». Emily Hart hadde bilder, videoer og tusenvis av følgere på tvers av flere plattformer. Noen av innleggene hennes nådde millioner av visninger. Hun var en fullverdig influencer, ikke et tilfeldig eggikon. Den personen som stod bak kontoen innrømmet til Wired at han tjente tusenvis av dollar hver måned på å poste lettklær-videoer til konkurrenter av OnlyFans og selge merchandise.

Bakmannen bak Emily Hart er ikke en erfaren utvikler. Han er en pengestrappe student med god kjennskap til amerikansk politisk kultur – og en Google Gemini-konto. Men saken om Emily Hart avslører et større problem: AI har gjort det utrolig enkelt for hvem som helst å skape troverdig innhold og manipulere sosiale mediers engasjementssystemer.

Falske influencere: Et nytt og farlig fenomen

Den største bekymringen er ikke én enkelt AI-generert profil, men at dette bare er toppen av isfjellet. AI har gjort det så billig, raskt og lønnsomt å lage falske online personligheter at det nå skjer i stor skala. Ifølge Wired finnes det flere pro-Trump-falske influencere, som «Jessica Foster». Men du trenger ikke lete lenge på Instagram Explore før du støter på AI-generert innhold – og det blir sjelden merket som det.

Saken om Emily Hart viser at oppskriften er enkel å kopiere: billig å produsere, rask å spre og svært lønnsom. Alle store sosiale medier har retningslinjer for AI-generert innhold. Disse varierer i detaljer, men hovedregelen er den samme: Syntetiske bilder må merkes – spesielt hvis de kan oppfattes som ekte og omhandler sensitive temaer som politikk, helse, økonomi eller nyheter.

Hvis en konto ikke oppgir at innholdet er AI-generert, kan den bli frosset, demonetarisert eller slettet. Men disse straffene eksisterer stort sett bare på papiret. I praksis er håndhevingen svak, delvis fordi det blir stadig vanskeligere å oppdage AI-generert innhold.

AI-generering er kommet foran detektorer

De fleste topp moderne bildegeneratorene er langt foran de første modellene som skapte videoer som «Will Smith spiser spaghetti». Tegn på AI-manipulasjon, som ekstra fingre eller forsvinnende bakgrunnsfigurer, er i stor grad historie. Uten vannmerker har til og med automatiserte systemer problemer med å skille AI-genererte bilder fra ekte bilder bare ved å se på dem.

«Næringsdeklarasjonen» som aldri når frem

Det finnes en løsning som skulle fikse dette: Content Credentials. Dette er en standard for å spore hvordan et bilde er blitt til og endret gjennom sin levetid. Informasjonen kan lagres i bildets metadata, slik at nettsiden som viser det, lettere kan avgjøre om det er ekte eller AI-generert.

Problemet? Denne informasjonen når sjelden frem til sluttbrukeren. Plattformene implementerer sjelden disse metadataene på en måte som er synlig for vanlige brukere. Selv om teknologien finnes, blir den sjelden brukt aktivt. Dermed fortsetter falske profiler og manipulerte bilder å sirkulere – ofte uten at noen legger merke til det.

Hvem har ansvaret?

Spørsmålet blir dermed: Hvem skal passe på oss? Hvordan kan vanlige brukere vite hva som er ekte og hva som er AI-generert? Og hvem har egentlig ansvaret for å varsle når bildene de ser, kan være produsert av en algoritme?

Sosiale medier har et ansvar for å beskytte brukerne sine, men mange mener at plattformene ikke gjør nok. Selv om regler eksisterer, er håndhevingen svak og teknologien foran utviklingen. Inntil noe radikalt endrer seg, vil falske profiler og manipulerte bilder fortsette å flomme sosiale medier – og lure millioner av brukere.

«AI har gjort det mulig for hvem som helst å skape troverdig innhold og manipulere engasjementssystemene på sosiale medier. Men hvem passer egentlig på oss når plattformene svikter?»