AI-löften som påminner om tidigare teknikvågor

President Donald Trump och hans regering lovordar AI som framtidens nyckelteknologi – en lösning som ska göra USA både rikare, effektivare och säkrare. Retoriken är bekant: liknande fraser användes för drygt 15 år sedan när molntjänster introducerades under Barack Obamas tid. Som granskande journalist med inriktning på cybersäkerhet har jag under de senaste två åren följt hur den federala administrationen och dess IT-leverantörer, däribland Microsoft, hanterat stora teknikskiften – och identifierat återkommande mönster.

Tre avgörande varningar från tidigare teknikskiften

När AI nu står i centrum för politisk och teknisk utveckling är det läge att reflektera över de fallgropar som tidigare generationer av teknik har inneburit. Här är tre centrala lärdomar som beslutsfattare bör ta till sig innan AI införs i stor skala.

1. Det finns inget gratis lunch

Under tidiga 2020-talet drabbades den amerikanska administrationen av en serie cyberattacker från Ryssland, Kina och Iran. Biden-regeringen vände sig till stora techföretag för att stärka landets digitala försvar. Microsofts VD Satya Nadella lovade då att företaget skulle bidra med 150 miljoner dollar i tekniska tjänster för att uppgradera säkerheten – inklusive en "gratis" säkerhetsuppgradering för statliga kunder.

Idag, under Trump-administrationen, har liknande strategier återkommit. Regeringen har ingått avtal med techföretag för att göra AI-verktyg tillgängliga till låga priser för federala myndigheter: ChatGPT för 1 dollar, Googles Gemini för 47 cent och Grok från xAI för 42 cent per användare. Målet var att underlätta införandet av AI-verktyg och effektivisera myndigheternas arbete.

Men bakom de låga priserna döljer sig en fälla. Vår granskning visar att så kallade "gratis" tjänster ofta leder till inlåsningseffekter. Efter att ha installerat uppgraderingen blir det svårt och kostsamt att byta till en konkurrent. Kunden hamnar då i en beroendeställning och tvingas betala höga avgifter för fortsatt användning. En före detta Microsoft-säljare beskrev det som "en succé utöver alla förväntningar".

Microsoft har i ett uttalande betonat att deras insats syftade till att stärka säkerheten mot statsaktörers cyberhot. Trots detta kvarstår frågan: Vilka dolda kostnader kan uppstå när AI-verktyg införs till subventionerade priser?

2. Bristande säkerhetskontroller skapar sårbarheter

Under molntjänsternas intåg på 2010-talet uppstod flera säkerhetsbrister som utnyttjades av främmande makt. En av de mest uppmärksammade incidenterna inträffade 2015, då kinesiska hackare lyckades komma åt personuppgifter för över 21 miljoner federala anställda via en underleverantör till Office of Personnel Management (OPM).

Incidenten avslöjade allvarliga brister i säkerhetsprotokoll och tredjepartsgranskningar. Trots att molntjänster marknadsfördes som säkrare alternativ, visade verkligheten en annan bild. Många myndigheter saknade tillräcklig kompetens för att bedöma riskerna med att överföra känslig data till externa leverantörer.

När AI nu införs i federala system är risken stor att samma misstag upprepas. AI-verktyg kräver tillgång till stora mängder data – ofta känslig sådan. Om säkerhetsprotokoll inte skärps kan dessa system bli attraktiva mål för cyberattacker. Vem bär ansvaret när en AI-driven säkerhetslucka leder till ett dataintrång?

3. Bristande transparens försvårar ansvarsutkrävande

En av de största utmaningarna under tidigare teknikskiften har varit bristen på insyn. Många avtal mellan federala myndigheter och techföretag har varit hemliga eller otydliga, vilket försvårat granskning och medborgarkontroll.

Under införandet av molntjänster kritiserades regeringen för att ha underlåtit att offentliggöra detaljerade villkor i avtal med företag som Amazon Web Services och Microsoft. Detta ledde till att kongressen och allmänheten saknade fullständig insyn i hur data hanterades och vem som hade tillgång till den.

När AI nu införs i federala system riskerar samma problem att uppstå. AI-verktyg, särskilt de som bygger på stora språkmodeller, kräver omfattande datainsamling och analys. Utan tydliga regler och öppenhet riskerar beslutsprocessen att bli ogenomskinlig – och medborgarnas förtroende för myndigheterna att urholkas.

"När AI införs i federala system utan tillräcklig insyn och kontroll riskerar vi att skapa system som ingen kan granska – och som ingen kan hållas ansvarig för."

Vad kan göras för att undvika upprepade misstag?

För att undvika att historien upprepar sig krävs det att beslutsfattare tar till sig av tidigare erfarenheter och inför tydliga riktlinjer för AI-användning i den offentliga sektorn. Några viktiga åtgärder inkluderar:

  • Oberoende granskning: Inför krav på tredjepartskontroller av säkerhetsprotokoll och dataskydd innan AI-verktyg implementeras.
  • Transparenta avtal: Se till att alla avtal mellan myndigheter och techföretag är offentliga och lättillgängliga för granskning.
  • Kostnadskontroll: Undvik subventionerade priser som leder till inlåsningseffekter. Utvärdera långsiktiga kostnader innan beslut fattas.
  • Kompetensutveckling: Investera i utbildning för myndighetspersonal för att säkerställa att de har rätt kunskaper för att hantera AI-verktyg på ett säkert sätt.

Slutsats: AI är framtiden – men inte till vilket pris som helst

AI har potential att revolutionera den offentliga sektorn, men historien visar att snabba teknikskiften ofta kommer med dolda kostnader och risker. Genom att lära av tidigare misstag och införa strikta säkerhets- och transparenskrav kan regeringen säkerställa att AI införs på ett ansvarsfullt sätt. Annars riskerar vi att upprepa samma fel – och betala ett högt pris för det.

Källa: ProPublica