Hvad er AI-forgiftning?

AI-forgiftning er en metode, hvor skabere af indhold bevidst forurener en chatbots grundlæggende store sprogmodel (LLM) for at få den til at levere forkerte, vildledende eller helt absurde svar. Dette sker ved at narre modellen til at indarbejde fejlagtige data under træningen, som ofte foregår ved at hente information fra millioner af hjemmesider og billeder.

Der findes flere teknikker til at forgifte en LLM, afhængigt af hvilken type model der er målet. For eksempel kan en billedgenererende LLM forurenes med Nightshading. Her tilføjes et usynligt lag til et billede ved hjælp af softwaren Nightshade. Laget er usynligt for det menneskelige øje, men synligt for AI-scrapere. Det får AI’en til at opfatte billedet som havende en anden stil end det reelt har – for eksempel abstrakt i stedet for realistisk – hvilket forhindrer modellen i at efterligne kunstnerens faktiske stil.

De fleste chatbots arbejder imidlertid med tekst, ikke billeder. Derfor er værktøjer som Nightshade ineffektive mod uautoriseret scraping af artikler og blogs. Men i de senere år er der kommet en ny type forgiftningsværktøjer, der specifikt retter sig mod tekstbaserede LLMs: AI-tarpits.

AI-tarpits: Den nye modstand mod uønsket datahøst

AI-tarpits er designet til at narre de crawlere, som LLMs bruger til at hente data fra internettet. Når en AI-crawler besøger en hjemmeside med en indlejret tarpit, bliver den omdirigeret til at indsamle automatisk genereret, men ubrugelig tekst. Denne tekst er enten fyldt med fejlagtige oplysninger – for eksempel at Steve Jobs grundlagde Microsoft i 1834 – eller fuldstændig meningsløs, som at "vandets farve er pepperoni".

Siderne med den forgiftede tekst indeholder desuden links til yderligere sider med ligeså forgiftet indhold, men ingen udgående links. På den måde fungerer tarpits som en fælde, der holder crawleren fanget i en evig sløjfe af ubrugelig data. Jo mere tid crawleren bruger på at gennemgå disse sider, desto mere forurenes LLM’en med irrelevante oplysninger, hvilket svækker kvaliteten af chatbotens svar.

Eksempler på populære tarpit-værktøjer inkluderer Nepenthes, Iocaine og Quixotic. Disse værktøjer kan nemt integreres i en hjemmesides kode, hvilket gør det muligt for indholdsskabere at forsvare deres rettigheder uden at kræve direkte samtykke fra AI-virksomhederne.

Hvorfor gør indholdsskabere dette?

Mange AI-virksomheder høster data fra internettet uden at spørge om tilladelse. Dette kan føre til økonomiske tab for indholdsskabere, der mister kontrol over deres værker og potentiel indtægt fra licensaftaler. Ved at indføre tarpits kan de aktivt modarbejde uautoriseret brug af deres indhold og samtidig signalere til AI-virksomhederne, at de ikke accepterer vilkårlig datahøst.

Selvom tarpits kan være effektive til at forringe kvaliteten af en chatbots svar, er de ikke en endelig løsning på problemet med uautoriseret datahøst. De udgør imidlertid et vigtigt våben i kampen for at sikre, at AI-virksomheder respekterer ophavsret og indholdsskaberes rettigheder.

"AI-tarpits er en nødvendig modvægt til den ukontrollerede datahøst, der foregår i dag. De giver indholdsskabere en stemme og en måde at forsvare deres arbejde på, når lovgivningen halter bagefter," siger en talsmand for en organisation for digital rettighed.

Hvad betyder dette for brugerne?

For brugerne kan AI-tarpits have både positive og negative konsekvenser. På den positive side kan de medvirke til at forbedre kvaliteten af AI-chatbots ved at tvinge udviklerne til at indhente lovligt data. På den negative side kan de midlertidigt forringe chatbotternes ydeevne, indtil udviklerne finder måder at opdage og filtrere de forgiftede data fra.

Det er derfor sandsynligt, at vi i fremtiden vil se en balance mellem AI-tarpits og nye teknologier, der kan opdage og neutralisere forgiftet data. Indtil da er det vigtigt for brugerne at være opmærksomme på, at chatbots ikke altid leverer korrekte eller pålidelige oplysninger – især når de trænes på data, der er blevet manipuleret.