AI-bransjen tar ansvar: Begrenser farlige modeller
Et av de mest oppmuntrende signalene innen kunstig intelligens er at flere av de som bygger teknologien, nå begynner å handle som om den kan være farlig. Ikke i form av en oppstandelse av maskiner som i Skynet, eller en superintelligens som i HAL 9000, men likevel med reelle risikoer for kritisk infrastruktur, personvern og sikkerhet.
I årevis har store teknologiselskaper vært raske med å lansere nye AI-funksjoner uten tilstrekkelig kontroll. Selv om debatten om ulempene har vært intens, har utviklingen stort sett vært ukontrollert. Nå begynner imidlertid flere selskaper å bremse opp – og i noen tilfeller aktivt si nei til å slippe løs potensielt farlige modeller.
Anthropic sperrer tilgang til farlig AI-modell
AI-selskapet Anthropic har nylig besluttet å ikke gjøre sin nyeste modell, Claude Mythos Preview, tilgjengelig for allmennheten. Ifølge selskapet har modellen allerede avdekket tusenvis av alvorlige sårbarheter i blant annet alle store operativsystemer og nettlesere.
I stedet for en bred lansering vil modellen kun bli tilgjengelig for et begrenset konsortium bestående av:
- Amazon Web Services
- Apple
- Broadcom
- Cisco
- CrowdStrike
- JPMorgan Chase
- Linux Foundation
- Microsoft
- NVIDIA
- Palo Alto Networks
Målet med Project Glasswing er å bruke modellen til å identifisere og reparere kritiske svakheter før uvedkommende kan utnytte dem. Selv om beslutningen også tjener selskapets egne interesser – som å unngå å bli sett på som ansvarsløse aktører – markerer den et viktig skifte i bransjen.
– Tidligere har bransjen insistert på at enhver ny funksjon måtte lanseres umiddelbart fordi «framskritt er uunngåelig». Nå ser vi for første gang at et stort selskap konkluderer med at en tilstrekkelig kraftig modell ikke bør slippes løs på det åpne markedet, sier en analytiker.
Strid med Pentagon: Begrensninger på militær bruk
Anthropic har også tatt et tydelig standpunkt i forhold til militær bruk av sine modeller. Selskapet har kun to unntak der de tillater bruk av AI-modellene til militære formål:
- Massiv overvåkning av befolkningen i USA
- Fullt autonome våpensystemer
På spørsmål om overvåkning uttalte CEO Dario Amodei at AI nå gjør det mulig å automatisk og i stor skala bygge et komplett bilde av ethvert menneskes liv basert på kommersielt tilgjengelige data. Når det gjelder autonome våpen, mener selskapet at dagens modeller ikke er pålitelige nok til å ta livsviktige beslutninger uten menneskelig innblanding.
Selv om Anthropic fortsatt er villig til å samarbeide med myndighetene om mange typer oppgaver, markerer dette en viktig grense for hvordan teknologien kan brukes. Pentagon reagerte imidlertid med sin vanlige kaotiske og hevnlystne tilnærming: Forsvaret krevde at AI-selskaper kun skulle jobbe med aktører som aksepterer «all lovlig bruk» av teknologien – og dermed fjerne alle slike begrensninger.
Da Anthropic nektet, ble selskapet av forsvarsminister Pete Hegseth utpekt som en trussel mot nasjonal sikkerhet – en merkelapp som har skapt stor oppmerksomhet.
Er dette starten på mer ansvarlig AI?
Beslutningene fra Anthropic og andre selskaper tyder på at bransjen endelig begynner å ta truslene fra AI på alvor. Selv om det fortsatt gjenstår mange utfordringer, er dette et viktig skritt mot en mer kontrollert og trygg utvikling av kunstig intelligens.
– Vi ser nå at flere aktører innser at ikke alle AI-modeller bør slippes løs ukontrollert. Dette er avgjørende for å unngå katastrofale konsekvenser, sier en ekspert på AI-etikk.
Spørsmålet er imidlertid om nok selskaper vil følge etter – eller om markedets press vil føre til at kontrollen igjen blir svekket.