אנתרופיק פיתחה את מודל ה-AI הכי מרשים שלה עד היום – ואז החליטה שהוא מסוכן מדי מכדי לשחרר אותו לציבור הרחב. זה הדבר הראשון מסוגו שחברת AI מובילת עושה בכמעט שבע שנים. Claude הוא המודל הבסיסי של אנתרופיק (Anthropic), אחת מחברות ה-AI הבולטות בעולם, שנוסדה על-ידי חוקרים לשעבר של OpenAI ומתמקדת בבטיחות בינה מלאכותית. Mythos Preview הוא הגרסה המתקדמת ביותר שנבנתה עד כה, וכפי שתראו – אולי מתקדמת מדי. אבל למה בעצם?

ובכן, מה שהפחיד את אנתרופיק הוא לא רק הביצועים הגבוהים, שזה לכשעצמו דבר משמח מאוד ורצוי, אלא מה ש-Mythos עשה כשבדקו אותו. המודל איתר ונצל חולשות zero-day באופן אוטומטי בכל מערכות ההפעלה המרכזיות ובדפדפנים הגדולים, לא כתיאוריה, אלא בפועל ממש. זה לא בדיוק מה שאתם רוצים שיהיה זמין לכל מי שמשלם על מנוי חודשי, ולמעשה לא הייתם רוצים דבר כזה בידיים אחרות בכלל.
למעשה זה אומר שכל מי שיכול להשיג גישה לכלי הזה, יוכל למצוא בקלות מדהימה פרצות אבטחה, שחלקן קיימות כבר שנים רבות וטרם נמצאו, ואף לנצל אותם לכל דבר ועניין, כולל ריסוק חברות, סחיטה, וכן על זה הדרך. ב-7 באפריל הכריזה אנתרופיק על Project Glasswing, יוזמה שמגבילה את הגישה ל-Mythos לשמונה שותפים נבחרים בלבד: Amazon, Apple, Microsoft, Cisco ו-CrowdStrike ביניהם, עם 100 מיליון דולר בקרדיטי שימוש.
ב-14 באפריל, האוצר האמריקאי שלח בקשה רשמית לגישה — לא כדי להשתמש במודל, אלא כדי לבדוק איתו כשלים בטחוניים על מנת לתקנם. מה שמתרחש כאן הוא שינוי דפוס ממשי; בעקבות בקרה עצמית וגילוי אחריות, שחרור מודלים כבר לא אומר רק "אנחנו בודקים לפני שמשחררים", אלא במידה שהמודל מצליח למצוא בעיות בצורה כל כך יעילה, הפתרון היחידי הוא בעצם לא לשחרר אותו בכלל.




































