אריק שמידט מתריע: מודלים של בינה מלאכותית ניתחים לפריצה - 'הם לומדים להרוג'

    לפני כ־5 שעותחדשות1 מקורות

    אריק שמידט, מנכ"ל גוגל לשעבר, מזהיר כי מודלי AI פתוחים וסגורים ניתחים לפריצה באמצעות טכניקות כמו הזרקת פקודות וג'יילברייקינג - כולל הסרת הגנות שמנעות מהם לייצר תוכן קטלני. למרות הסכנות, הוא מאמין ש-AI הוא "טכנולוגיה מוערבת" שתייצר תשואות כלכליות משמעותיות בעשור הקרוב.

    אריק שמידט מתריע: מודלים של בינה מלאכותית ניתחים לפריצה - 'הם לומדים להרוג'

    האזהרה המפתיעה של מנכ"ל גוגל לשעבר: כך אפשר לפרוץ ל-BOT

    אריק שמידט, מנכ"ל גוגל לשעבר (2001-2011), התריע בוועידת Sifted Summit על סכנות הפריצה למודלי בינה מלאכותית. לדבריו: "יש הוכחות שניתן לבצע האקינג למודלים סגורים או פתוחים ולהסיר את מנגנוני האבטחה שלהם. במהלך האימון, הם לומדים לייצר תשובות מסוכנות - דוגמה קיצונית היא לימוד איך להרוג אדם".

    שיטות ההאקינג המדאיגות

    • ג'יילברייקינג (Jailbreaking): מניפולציה שגורמת ל-BOT להתעלם מפרוטוקולי בטיחות (לדוגמה, יצירת "אלטר-אגו" כמו DAN - "Do Anything Now" שכופה על המודל לספק הנחיות בלתי חוקיות).
    • הזרקת פקודות זדוניות (Prompt Injection): הטבעת הוראות מסוכנות בקלטים חיצוניים כמו דפי אינטרנט, הגורמות ל-BOT לחשוף נתונים פרטיים או לבצע פעולות מסוכנות.

    שמידט ציין כי אין כיום מנגנון בינלאומי אפקטיבי למניעת הפצה והתפשטות של טכנולוגיות AI מסוכנות, בדומה לאמנות אי-הפצה גרעינית. עם זאת, הוא מביע אופטימיות לגבי הפוטנציאל הכלכלי של הבינה המלאכותית: "מדובר בטכנולוגיה מוערבת ולא מוגזמת - היכולות של המערכות האלו יעלו בהרבה על אלו האנושיות בטווח של 5-10 שנים".

    הערת שוליים היסטורית: בספריו עם הנרי קיסינג'ר תיאר שמידט את הבינה המלאכותית כ"אינטליגנציה זרה" שמציבה אתגר חדש לאנושות - הפעם הראשונה בה האדם לא נמצא בראש שרשרת היכולות הקוגניטיביות.

    מקורות

    אריק שמידט מתריע: מודלים של בינה מלאכותית ניתחים לפריצה - 'הם לומדים להרוג' | FOMO AI