אריק שמידט מתריע: מודלים של בינה מלאכותית ניתחים לפריצה - 'הם לומדים להרוג'
אריק שמידט, מנכ"ל גוגל לשעבר, מזהיר כי מודלי AI פתוחים וסגורים ניתחים לפריצה באמצעות טכניקות כמו הזרקת פקודות וג'יילברייקינג - כולל הסרת הגנות שמנעות מהם לייצר תוכן קטלני. למרות הסכנות, הוא מאמין ש-AI הוא "טכנולוגיה מוערבת" שתייצר תשואות כלכליות משמעותיות בעשור הקרוב.

האזהרה המפתיעה של מנכ"ל גוגל לשעבר: כך אפשר לפרוץ ל-BOT
אריק שמידט, מנכ"ל גוגל לשעבר (2001-2011), התריע בוועידת Sifted Summit על סכנות הפריצה למודלי בינה מלאכותית. לדבריו: "יש הוכחות שניתן לבצע האקינג למודלים סגורים או פתוחים ולהסיר את מנגנוני האבטחה שלהם. במהלך האימון, הם לומדים לייצר תשובות מסוכנות - דוגמה קיצונית היא לימוד איך להרוג אדם".
שיטות ההאקינג המדאיגות
- ג'יילברייקינג (Jailbreaking): מניפולציה שגורמת ל-BOT להתעלם מפרוטוקולי בטיחות (לדוגמה, יצירת "אלטר-אגו" כמו DAN - "Do Anything Now" שכופה על המודל לספק הנחיות בלתי חוקיות).
- הזרקת פקודות זדוניות (Prompt Injection): הטבעת הוראות מסוכנות בקלטים חיצוניים כמו דפי אינטרנט, הגורמות ל-BOT לחשוף נתונים פרטיים או לבצע פעולות מסוכנות.
שמידט ציין כי אין כיום מנגנון בינלאומי אפקטיבי למניעת הפצה והתפשטות של טכנולוגיות AI מסוכנות, בדומה לאמנות אי-הפצה גרעינית. עם זאת, הוא מביע אופטימיות לגבי הפוטנציאל הכלכלי של הבינה המלאכותית: "מדובר בטכנולוגיה מוערבת ולא מוגזמת - היכולות של המערכות האלו יעלו בהרבה על אלו האנושיות בטווח של 5-10 שנים".
הערת שוליים היסטורית: בספריו עם הנרי קיסינג'ר תיאר שמידט את הבינה המלאכותית כ"אינטליגנציה זרה" שמציבה אתגר חדש לאנושות - הפעם הראשונה בה האדם לא נמצא בראש שרשרת היכולות הקוגניטיביות.