חברת Anthropic, המפתחת מודלי בינה מלאכותית מתקדמים תוך דגש על בטיחות ואתיקה, נקלעה למבוכה מקצועית לאחר שמודל ה-AI שלה, Claude Mythos, שהוצג כמסוכן מדי לפרסום לציבור בשל יכולותיו הגבוהות בתחום אבטחת הסייבר, הודלף למרות ההגבלות הקפדניות.
לפי דיווח של Bloomberg, קבוצת משתמשים לא מורשית הצליחה לקבל גישה למודל כבר ביום ההכרזה על תוכנית Anthropic לשתף אותו באופן מוגבל עם קבוצת חברות נבחרות לצורך בדיקות. החברה הודיעה כי היא חוקרת את הפרצה, אך הנזק לתדמיתה כבר נגרם.
הפרשה מעוררת שאלות קשות לגבי יכולתה של Anthropic לשמור על סודיות המודלים המתקדמים שלה, במיוחד לאור ההכרזות החוזרות ונשנות של החברה על מחויבותה לבטיחות AI. המודל, שנחשב לאחד המתקדמים בתחום אבטחת הסייבר, הוצג ככזה שיכול לזהות ולחזות מתקפות סייבר מורכבות, אך כעת התברר כי הוא נמצא בידי גורמים שלא היו אמורים לקבל אליו גישה.
הפרשה מעלה חששות בקרב מומחים לגבי האבטחה של מודלי AI מתקדמים, ומאתגרת את הטענות של חברות הטכנולוגיה לגבי יכולתן לשמור על סודיות המידע הרגיש שלהן. Anthropic, שגייסה לאחרונה מיליארדי דולרים למימון פיתוח המודלים שלה, נאלצת כעת להתמודד עם ביקורת על כשלי האבטחה שלה.