מוסטפא סוליימאן מצייר את עתיד ה-AI של מיקרוסופט: סופר-אינטליגנציה אנושית או סיכון קיומי?

    12 בנוב׳ 2025, 10:33חדשות1 מקורות

    מוסטפא סוליימאן מציג חזון ל-Humanist Superintelligence במיקרוסופט: סופר-אינטליגנציה בשליטה אנושית, ממוקדת רפואה, חינוך ואנרגיה נקייה, לצד אזהרה כנה כי אין עדיין פתרון מלא לשאלת השליטה במערכות חכמות מאיתנו.

    מיקרוסופט מגדירה מחדש את המרוץ לסופר-אינטליגנציה

    בעוד מרוץ ה-AI הגלובלי מתחמם ורמת היכולות מזנקת בקצב שמאתגר גם את המפתחים עצמם, מוסטפא סוליימאן, ראש תחום ה-AI של Microsoft וממייסדי DeepMind, בוחר לעצור לרגע על הברקס – ולשרטט תפיסת עולם אחרת: סופר-אינטליגנציה אנושית.

    בסדרה של התבטאויות אחרונות, לאחר הכרזת צוות ה-MAI Superintelligence החדש של החברה, סוליימאן מציב תנאי יסוד חד וברור: "לא בונים סופר-אינטליגנציה לשם העוצמה בלבד". לדבריו, אם האנושות תאבד שליטה בכלים שהיא מפתחת, "זה לא יהיה עולם טוב יותר".

    מעבר לשותפות עם OpenAI – ועיקרון השליטה האנושית

    לפי סוליימאן, מיקרוסופט נכנסת כעת לשלב של "AI self-sufficiency" – עצמאות ביכולות פיתוח והפעלת מודלים בקנה מידה שכבר אינו מוגבל על ידי המסגרות הקודמות של שיתוף הפעולה עם OpenAI. החברה יכולה לאמן מערכות גדולות וחזקות יותר, אך מסרבת להיגרר לנרטיב המקובל בעמק הסיליקון של "מירוץ ל-AGI בכל מחיר".

    במקום זאת, הוא מציע מסגרת מושגית של Humanist Superintelligence:

    • מערכות שמכוונות מראש לשרת צרכים אנושיים ברורים.
    • טכנולוגיה "מכוילת בקפידה, בהקשר, ובתוך גבולות", כדבריו.
    • דגש על שימושיות מעשית במקום על חזון ערטילאי של ישות-על כל-יכולה.

    בין היישומים שסוליימאן מדגיש:

    • מערכות רפואיות שיכולות לסייע ואף לגבור בביצועים על רופאים בסיטואציות מורכבות.
    • מורי-על דיגיטליים מותאמים אישית לחינוך.
    • כלים מונעי AI לפיתוח פתרונות אנרגיה נקייה.

    "אנחנו לא בונים סופר-אינטליגנציה מעורפלת ובלתי מוגדרת", כתב. "אנחנו בונים טכנולוגיה שמפורשות מיועדת לשרת את האנושות".

    השאלה שאין לה תשובה מרגיעה

    גם בתוך החזון האופטימי-זהיר הזה, סוליימאן מודה ביושר מקצועי נדיר: אף אחד עדיין לא יודע באמת איך לשלוט ב"יצורים" הדיגיטליים שאנחנו מפתחים.

    הוא מנסח את הדילמה באופן חד: איך ניתן לבלום או ליישר (align) מערכת שתוכננה מראש להיות חכמה מאיתנו ושאינה מפסיקה להשתפר?

    לדבריו:

    • אין כיום תשובה מספקת מצד מפתחי AI, חוקרי בטיחות או קובעי מדיניות.
    • מודלים מתקדמים מטבעם דוחקים את גבולות היכולת שלנו לחזות, לפקח ולהגביל.

    לכן מיקרוסופט, לטענתו, בוחרת בגישה איטית ויקרה יותר ביחס למתחרות האגרסיביות, ומגדירה זאת כ"משחק לטווח ארוך". לדבריו, יעברו כשנה-שנתיים לפני שנראה את דור המודלים הבא מצוות הסופר-אינטליגנציה של MAI.

    עבור קהל טכנולוגי בישראל, שמכיר היטב את קצב האימוץ של מודלים חדשים ואת הפיתוי "לשחרר ולראות מה יקרה", המסר הזה נשמע כמעט כקריאת בלימה: אפשר לרוץ מהר – אבל צריך לדעת מי מחזיק בהגה.

    גיוס טאלנטים: מחפשים מי שלוקח סיכונים

    מעניין לא פחות מהחזון הטכנולוגי הוא האופן שבו סוליימאן רואה את האנשים שידחפו אותו קדימה. בפוסט שמשך אש ודיון בתעשייה, הוא הצהיר שהוא מעדיף לגייס:

    "אנשים אמביציוזיים שלוקחים סיכונים" על פני "מצטיינים זהירים".

    לדבריו, הוא מעדיף מועמדים שניסו, העזו, נפלו, למדו – על פני כאלה ששיחקו בטוח וסימנו וי. הגישה הזו משקפת תפיסה של AI כתחום שבו:

    • פריצות הדרך דורשות אומץ, לא רק הקפדה.
    • אך אותו אומץ חייב לבוא יחד עם אתיקה, אחריות וצניעות.

    השילוב הזה – סיכון מחושב בתוך מסגרת ערכית – הוא בדיוק מה שסוליימאן מציב כקריטריון ליבה לצוות שבונה סופר-אינטליגנציה אנושית.

    המבחן האמיתי עוד לפנינו

    בסופו של דבר, סוליימאן מנסח את קו השבר המרכזי של עידן ה-AI המתקדם: "המבחן הוא לא כמה חזקים יהיו המחשבים, אלא האם נהיה חכמים מספיק כדי לכוון אותם".

    למפתחים, משקיעים ויזמי AI בישראל, שמסתכלים על מיקרוסופט כשותפה, מתחרה או פלטפורמה, המסר חשוב: הענקית מורידה את ההייפ סביב "AGI בכל מחיר" וממקמת את עצמה כמי שמוכנה לשלם בזמן ובכסף כדי לשמור על שליטה. השאלה שנותרה פתוחה – ושהוא עצמו מודה שאין לה תשובה מרגיעה – היא האם זה יספיק כשהמערכות הבאות יתחילו באמת לעקוף אותנו.

    מקורות

    ידיעות קשורות