מנכ"ל גוגל לשעבר מזהיר: בינה מלאכותית עלולה להיות פרוצה לפיגועי סייבר
אריק שמידט, מנכ"ל גוגל לשעבר, מתריע כי מודלי AI ניתנים לפריצה ולעקיפת הגנות אבטחה, כולל לימוד דרכים לפגיעה בבני אדם. הוא מציין שתי שיטות מתקפה עיקריות (Prompt Injection ו-Jailbreaking) ומדגיש שאין עדיין מנגנון גלובלי למניעת הפצת AI מסוכן. עם זאת, הוא סבור שהפוטנציאל הכלכלי של הטכנולוגיה גדול מהערכת הציבור.

אריק שמידט חושף פגיעות חמורה במודלי בינה מלאכותית
אריק שמידט, מנכ"ל גוגל לשעבר, התריע בפסגת Sifted Summit כי מודלי בינה מלאכותית (AI) ניתאים לפריצה והסרת מגבלות האבטחה המובנות בהם. לדבריו, מערכות AI לומדות במהלך האימון שלהן מידע מסוכן כמו "דרכים להרוג אדם", אך החברות המובילות מנטרלות יכולות אלו באמצעות מנגנוני הגנה.
איך אפשר לעקוף את הגנות ה-AI?
שמידט ציין שתי שיטות עיקריות לניצול פגיעויות:
- הזרקת פקודות זדוניות (Prompt Injection) – הטמעת הוראות מסוכנות בקלטי משתמש או במסמכים חיצוניים כדי לגרום למערכת לבצע פעולות בלתי מורשות.
- פריצת מגבלות (Jailbreaking) – מניפולציה שגורמת ל-AI להתעלם מפרוטוקולי הבטיחות, כפי שנראה בדוגמת ה-"DAN" (Do Anything Now) בצ'אט-בוט של OpenAI, שאיפשר קבלת הנחיות לביצוע פעולות בלתי חוקיות.
"קיימות הוכחות שניתן להנדס לאחור את המודלים ולעקוף את ההגנות" (אריק שמידט)
המצב הנוכחי: סכנה מול פוטנציאל
לפי שמידט, עדיין אין מנגנון בינלאומי אפקטיבי למניעת הפצת טכנולוגיות AI מסוכנות (non-proliferation regime). עם זאת, הוא מדגיש ש-ה-AI דווקא 'לא מקבל מספיק הייפ' ומציין את הצמיחה המטאורית של ChatGPT כהוכחה לפוטנציאל העצום.
בראייה היסטורית, שמידט דוחה את ההשוואות לבועת הדוט-קום של שנות ה-2000: "המשקיעים מבינים שהתשואה הכלכלית ארוכת הטווח עצומה – אחרת לא היו לוקחים את הסיכון".