שביתת רעב בלונדון: חוקר דורש עצירת פיתוח מודלי AI מסוכנים

    לפני כחודשחדשות1 מקורות

    מישל טראצי, חוקר AI לשעבר, נמצא בשביתת רעב מחוץ ל-DeepMind בדרישה לתיאום בין ענקיות הטק על עצירת פיתוח מודלים מתקדמים. הוא מזהיר מפני AGI אוטונומי שנגיע אליו עד 2030, שיוכל לפתח נשק ביולוגי מתקדם ללא פיקוח. דרישתו העיקרית: התחייבות לא לשחרר מודלי frontier אם כל החברות יירתמו להסכם.

    שביתת רעב בלונדון: חוקר דורש עצירת פיתוח מודלי AI מסוכנים

    מהנדס לשעבר מזהיר: "הסיכון הגדול ביותר - בינה מלאכותית שמפתחת את עצמה"

    מישל טראצי, חוקר בטיחות AI בן 29 מצרפת, נמצא ביום הרביעי לשביתת רעב מחוץ למשרדי DeepMind בלונדון. במסגרת המחאה, הוא מנסה להעלות מודעות לסכנות הטמונות בהתפתחות בינה מלאכותית כללית (AGI).

    המהפך הקריירה: מבנאי AI למבקר

    טראצי החל את דרכו כחוקר בטיחות AI במכון העתיד של האנושות באוקספורד, אך בשנים האחרונות עבר ליצירת תוכן דיגיטלי - מפודקאסטים עד סרטים תיעודיים על מדיניות AI בארה"ב. כעת, הוא מיישם טקטיקה קיצונית יותר למען המטרה.

    הסכנה האמיתית: יכולות אוטונומיות

    "עד 2019, מערכות AI לא היו מסוכנות במיוחד", מסביר טראצי. "החשש הגדול שלי מתמקד בשלב הבא: כאשר AI יוכל לבצע מחקר ופיתוח אוטונומי - ליצור דורות מתקדמים של עצמו ללא פיקוח אנושי".

    טראצי מעריך שיש סבירות גבוהה שנגיע לשלב זה לפני 2030, עם יכולת הנדסית "בעלת פוטנציאל ליצירת נשק ביולוגי מתקדם פי שנים רבות מהאדם". תרחיש "AI 2027" המדובר, עליו מרחיב טראצי, מציג מירוץ חימוש טכנולוגי בין ארה"ב לסין.

    הדרישה: תיאום בין ענקיות הטכנולוגיה

    השחקן המרכזי במחאה הוא Demis Hassabis, מנכ"ל DeepMind. טראצי דורש התחייבות פומבית שלא לשחרר מודלי frontier מתקדמים בתנאי שגם OpenAI, Anthropic ושחקניות מובילות נוספות יסכימו להפסקת פיתוח מתואמת.

    "הניגוד בין חומרת המצב לפעולות בפועל מטריד", מציין טראצי. "המחאה שלי נועדה ליצור הלימה בין אמונות למעשים בתעשייה".

    מקורות

    שביתת רעב בלונדון: חוקר דורש עצירת פיתוח מודלי AI מסוכנים | FOMO AI