השבוע ביצעה ממשלת טראמפ הפתעה גדולה בתחום הבינה המלאכותית: היא חתמה על הסכמים עם גוגל DeepMind, מיקרוסופט ו-xAI לביצוע בדיקות בטיחות ממשלתיות על מודלי AI מתקדמים של החברות, הן לפני והן לאחר שחרורם לשוק.
עד לאחרונה, נשיא ארצות הברית דונלד טראמפ התנגד בתקיפות למדיניות ממשל ביידן בתחום הבטיחות של AI, וטען כי דרישות לבדיקות בטיחותיות הן עודף רגולציה שמעכב חדשנות. זמן קצר לאחר כניסתו לתפקיד, הוא אף שינה את שם המכון לבטיחות AI בארה"ב ל-Center for AI Standards and Innovation (CAISI), תוך הסרת המילה "בטיחות" מהשם כהתרסה כלפי ממשל ביידן.
אולם, לאחר ש-Anthropic הודיעה כי לא תוכל לשחרר את מודל ה-Claude Mythos החדש בשל חששות מפני ניצול יכולותיו המתקדמות על ידי גורמים עוינים, טראמפ החל להביע דאגה פתאומית בנושא בטיחות ה-AI. על פי דיווח של Fortune, מנהל המועצה הלאומית לכלכלה בבית הלבן, Kevin Hassett, ציין כי טראמפ עשוי להוציא צו נשיאותי חדש שיחייב בדיקות ממשלתיות מקיפות למודלי AI מתקדמים לפני שחרורם.
ההסכמים החדשים מהווים שינוי חד במדיניות הממשל האמריקאי בתחום ה-AI, ומעידים על חשיבותם הגוברת של נושא הבטיחות בעידן הטכנולוגיות המתקדמות.