De Amerikaanse regering onderzoekt momenteel de mogelijkheid om een speciale werkgroep in te stellen die nieuwe AI-modellen moet goedkeuren voordat ze voor het grote publiek beschikbaar komen. Volgens bronnen binnen het Witte Huis zou deze maatregel de veiligheid en ethische aspecten van kunstmatige intelligentie beter moeten waarborgen.

Deze ontwikkeling volgt op een groeiende bezorgdheid over de snelle vooruitgang van AI-technologie en de mogelijke risico's die daarmee gepaard gaan. Zo zijn er zorgen over privacy, discriminatie en misbruik van AI-systemen. Een dergelijke werkgroep zou kunnen helpen om deze risico's te beperken door nieuwe modellen te testen op veiligheid en compliance met wetgeving.

Hoewel de details nog niet definitief zijn vastgesteld, zou de werkgroep kunnen bestaan uit experts op het gebied van technologie, ethiek en wetgeving. Het doel is om een gestructureerde aanpak te creëren voor de evaluatie van AI-modellen, zodat alleen veilige en betrouwbare systemen op de markt komen.

Deze stap past binnen een bredere strategie van de Amerikaanse overheid om de controle over AI-ontwikkelingen te vergroten. Eerder kondigde het Witte Huis al aan dat het samenwerkt met techbedrijven om verantwoordelijke AI-innovatie te bevorderen. De komende maanden zal duidelijk worden hoe deze plannen concreet vorm krijgen.