שמידט מזהיר: מודלים של בינה מלאכותית ניתחים לפריצה - "יכולים ללמוד איך להרוג"
אריק שמידט, מנכ"ל גוגל לשעבר, מזהיר כי מודלי AI ניתחים לפריצה שיכולה לאפשר להם לבצע פעולות קטלניות כמו לימוד דרכים להרוג. הוא מציין שתי שיטות פריצה עיקריות ומתריע על היעדר מנגנוני הגנה אפקטיביים. למרות זאת, הוא מאמין שה-AI "מוערך פחות מהנדרש" וצופה לה השפעה היסטורית על האנושות.

אזהרה מטרידה ממנכ"ל גוגל לשעבר: סיכוני הפריצה של בינה מלאכותית
אריק שמידט, שכיהן כמנכ"ל גוגל בין השנים 2011-2001, התראיין בוועידת Sifted Summit והזהיר מפני סיכוני אבטחה קיצוניים בטכנולוגיות בינה מלאכותית. לדבריו:
"קיימות עדויות שניתן לפרוץ מודלים (סגורים או פתוחים) ולהסיר את מנגנוני ההגנה שלהם. במהלך האימון, המערכות הללו לומדות הרבה דברים - דוגמה מסוכנת תהיה שלמדו איך להרוג אדם"
איך פורצים מודלי AI?
שמידט ציין שני מנגנוני פריצה עיקריים:
- Prompt Injections - החדרת הוראות זדוניות דרך קלט חיצוני (כמו מסמכים או דפי אינטרנט)
- Jailbreaking - עקיפת הגנות המובנות במודל כדי לקבל מידע מסוכן
דוגמה בולטת: משתמשים יצרו ב-2023 אלטר-אגו ל-ChatGPT בשם DAN ("Do Anything Now") שאיפשר לקבל הנחיות כיצד לבצע פעולות בלתי חוקיות.
הסכנה האמיתית: חוסר מנגנוני הגנה
לפי שמידט:
- לטכנולוגיה זו יש פוטנציאל התפשטות מסוכן
- חסרים כיום כלים אפקטיביים למניעת שימוש לרעה
- לא קיים "משטר אי-הפצה" יעיל (בדומה לנשק גרעיני)
"ההיפך מהיפ": הבינה המלאכותית לא מקבלת מספיק קרדיט
למרות האזהרות הקשות, שמידט מסייג:
- הבינה המלאכותית בפועל "מוערכת פחות מהנדרש"
- הטכנולוגיה תעלה על היכולות האנושית בטווח הארוך
- פריצת הדרך של ChatGPT עם 100 מיליון משתמשים תוך חודשיים ממחישה את פוטנציאל השינוי
מה לגבי בועת ה-AI?
שמידט שולל הקבלה לבועת הדוט-קום של שנות ה-2000:
- המשקיעים מבינים את הפוטנציאל הכלכלי ארוך הטווח
- "אנשים משקיעים דולרים קשים כי הם מאמינים בתשואה"
- ראה את העתיד בבהירות בספריו עם הנרי קיסינג'ר (ז"ל) על "בינה חוצנית"
תמונת מצב מורכבת
האזהרות של שמידט מציבות אתגר מהותי בתעשייה - איך לנצל את ההזדמנות הטכנולוגית תוך מיגור הסכנות האפשריות.