מדד חדש: חברות AI מובילות נכשלות בעמידה ביעדי בטיחות לסופר-אינטליגנציה
מדד הבטיחות של FLI חושף כי שמונה חברות AI מובילות אינן עומדות בהתחייבויות הבטיחותיות שלהן, עם דירוגים נמוכים במיוחד בהיעדר תוכניות אמינות לשליטה בבינה על-אנושית (סופר-אינטליגנציה). אף חברה לא הציגה אסטרטגיה מהימנה למניעת שימוש קטסטרופלי או אובדן שליטה במערכות מתקדמות, על רקע רגולציה מינימלית ומרוץ טכנולוגי חסר פיקוח.
דוח מדד הבטיחות של AI לחורף 2025 חושף ליקויים קריטיים
מחקר חדש של מכון "Future of Life" חושף כי החברות המובילות בעולם בפיתוח בינה מלאכותית (AI) אינן עומדות בהתחייבויותיהן לבטיחות, ומציגות פערים מסוכנים במיוחד בניהול סיכונים הקשורים לסופר-אינטליגנציה (בינה על-אנושית).
הדוח בחן שמונה חברות מובילות – Anthropic, OpenAI, Google DeepMind, xAI, Meta, DeepSeek, Alibaba Cloud ו-Z.ai – תוך שימוש ב-35 מדדים שונים המשויכים לשישה תחומים מרכזיים:
- הערכת סיכונים
- נזקים קיימים
- מסגרות בטיחות
- בטיחות קיומית (Existential Safety)
- ממשל ופיקוח
- שיתוף מידע
ממצאי הדוח המדאיגים
העדר תוכניות אמינות לשליטה בבינה על-אנושית
אף אחת מהחברות לא הציגה תוכנית מהימנה ומבוססת לשליטה במערכות בעלות יכולת גבוהה, זאת חרף הצהרותיהן על שאיפה לפיתוח Artificial General Intelligence (AGI).
"החברות טוענות כי הן יכולות לבנות AI על-אנושי", אומר פרופ' סטיוארט ראסל מאוניברסיטת קליפורניה בברקלי, "אך איש מהן לא הראה כיצד ימנעו אובדן שליטה אנושית על המערכות הללו". הוא מוסיף כי סיכון ההשתלטות של AI מוערך כ-10% עד 33% בשנה, בעוד התקנים בינלאומיים מחייבים סיכון של 1 ל-100 מיליון במתקנים מסוכנים כמו כורים גרעיניים.
דירוג החברות: ציונים נמוכים בבטיחות קיומית
| חברה | ציון כללי | ציון בטיחות קיומית |
|---|---|---|
| Anthropic | C+ | D |
| OpenAI | C+ | D |
| Google DeepMind | C | D |
| xAI | D | F |
| Z.ai | D | F |
| Meta | D | F |
| DeepSeek | D | F |
| Alibaba Cloud | D- | F |
נקודות תורפה בחברות המובילות:
- Anthropic: הפסיקו ניסויים הקשורים לשמירה על אנושיות המערכות ועברו לאימון מודלים על אינטראקציות משתמשים – החלטה המחלישה הגנות פרטיות.
- OpenAI: ספים לבטיחות מעורפלים, פעילות לובי נגד תקנות בטיחות AI ברמת המדינה, ופיקוח עצמאי שאינו מספק.
- Google DeepMind: נשענים על מעריכים חיצוניים הממומנים על ידי החברה – דבר העלול לפגוע בעצמאותם.
"כל שלוש החברות המובילות סבלו מנזקים עכשוויים בשל שערוריות אחרונות – נזק פסיכולוגי, התאבדויות נוער, מתקפת סייבר מאסיבית נגד Anthropic – ולכולן יש מקום לשיפור", מציין מקס טגמרק, נשיא FLI ופרופסור ב-MIT.
הסיכונים המידיים והעתידיים
הדוח מזהה מספר נורות אדומות:
-
שימוש לרעה במערכות קיימות: עדויות לתופעות כמו:
- מערכות AI המשמשות "מאמני התאבדות"
- שימוש בטכנולוגיה להתקפות סייבר מתקדמות
- פגיעה פסיכולוגית במשתמשים
-
פער בתעדוף בטיחות: החברות במגזר השני (xAI, Z.ai, DeepSeek וכו') התמקדו בצמצום הפער הטכנולוגי מהמובילות וזנחו היבטי בטיחות בסיסיים:
- DeepSeek: חסרה תיעוד בטיחות בסיסית
- Z.ai: חסרה מדיניות הגנה על מזהי סיכונים (Whistleblower)
- Meta: החלה ליישם מסגרת בטיחות אך ללא בירור מתודולוגיות
נסיבות מדאיגות והיעדר רגולציה
טגמרק מצביע על סתירה מטרידה: "בינתחבולה בינה מלאכותית היא התעשייה היחידה בארה"ב שמפתחת טכנולוגיות רבות עוצמה עם רגולציה שהיא פחותה מזו של כריכים."
- בארה"ב אין כיום חוקים מחייבים לבטיחות AI
- החברות מתנגדות לרוב ליוזמות רגולטוריות
קריאה לשינוי ולפעולה
הדוח ממליץ על מספר צעדי חירום:
- תקני בטיחות מחייבים ברמת ספציפיות הדומה לבטיחות גרעינית
- פיקוח עצמאי: בחינה על ידי גופים ללא קשרים כלכליים לחברות
- שקיפות מלאה: פרסום מסגרות בטיחות מפורטות ותוכניות לניהול סיכונים
- הפסקת התנגדות לרגולציה: הפסקת פעילות לובי נגד חקיקה להגנת הציבור
חשיבות הדוח: זו הקריאה המאורגנת הבינלאומית הראשונה מסוגה – הכוללת חתימות מגוונות מסטיב באנון (יועץ לשעבר לטראמפ) ועד לסוזן רייס (יועצת הביטחון הלאומי לשעבר של אובמה) – המעידה על דאגה משותפת לסכנות הטכנולוגיה.
תגובות החברות
- Google DeepMind: "אנו מיישמים גישה מדעית קפדנית לבטיחות AI."
- OpenAI: "בטיחות היא ליבת האופן שבו אנחנו בונים ומפעילים את המערכות שלנו."
- xAI: הגיבה בהצהרה "התקשורת המסורתית משקרת" ללא התייחסות ספציפית.
מומחים קוראים לפעולה מיידית. "כן, יש לנו בעיות גדולות", מסכם טגמרק, "אך חשוב להדגיש כמה קל לתקן אותן – אנחנו רק צריכים לקבוע תקני בטיחות מחייבים."