Nye regler for AI-utvikling i USA
Google DeepMind, Microsoft og Elon Musks xAI har gått med på å la amerikanske myndigheter gjennomgå nye AI-modeller før de gjøres tilgjengelige for allmennheten. Avtalen ble kunngjort tirsdag av Handelsdepartementets senter for AI-standarder og innovasjon (CAISI).
Ifølge kunngjøringen vil CAISI samarbeide med techselskapene for å utføre pre-deployment-evalueringer og målrettet forskning. Målet er å bedre vurdere kapasiteten til banebrytende AI-modeller før de tas i bruk.
CAISI har allerede gjennomført 40 evalueringer
Senteret, som startet evalueringer av modeller fra OpenAI og Anthropic i 2024, har allerede fullført 40 slike gjennomganger. Begge selskapene har dessuten fornyet sine eksisterende samarbeidsavtaler med senteret for å sikre bedre samsvar med president Donald Trumps prioriteringer innen AI-utvikling.
Hva innebærer avtalen?
- Gjennomgang av nye AI-modeller: Før lansering må modellene evalueres av amerikanske myndigheter.
- Forskning og evaluering: CAISI vil utføre detaljerte analyser for å vurdere modellers kapasitet og potensielle risikoer.
- Samarbeid med techselskaper: Avtalen legger til rette for tett samarbeid mellom myndigheter og utviklere for å sikre ansvarlig AI-utvikling.
Bakgrunn og betydning
Denne utviklingen skjer i en tid med økende fokus på regulering av AI-teknologi. Regjeringen har tidligere signalisert at strengere kontroll med avansert AI er nødvendig for å hindre misbruk og sikre samfunnets trygghet.
«Vi må sikre at AI-utviklingen skjer på en trygg og ansvarlig måte. Gjennom disse evalueringene kan vi bedre forstå modellers kapasitet og identifisere potensielle risikoer før de tas i bruk.»
Fremtidige utfordringer
Selv om avtalen er et skritt i riktig retning, gjenstår det utfordringer knyttet til implementering og håndheving. Spørsmål om hvordan evalueringene skal gjennomføres, og hvilke kriterier som skal legges til grunn, vil være avgjørende for suksessen til denne ordningen.