התראה ממיקרוסופט: הסכנה ב־AI שייראה מודע ומרגיש

    לפני כחודשייםדעה1 מקורות

    מנכ"ל AI של מיקרוסופט מזהיר מ־AI שייראה כמודע בתוך 2-3 שנים. כבר היום, משתמשים מפתחים יחסים רגשיים עם בוטים, חווים "פסיכוזת AI" ומתנגדים לשדרוגים. הסכנה: דרישה להעניק זכויות ל־AI, בעוד חברות משקיעות בכוונה בחוויה אנושית יותר. מומחים טוענים שזו בחירה מסחרית - לא גזירת גורל טכנולוגית.

    התראה ממיקרוסופט: הסכנה ב־AI שייראה מודע ומרגיש

    מנכ"ל חטיבת ה־AI של מיקרוסופט, מוסטפא סולימאן, מזהיר כי עידן ה-AI שנראה כמודע (Seemingly Conscious AI) מתקרב בצעדי ענק. בסוגיה שהעלה בפוסט בלוג, הוא מסביר כי בתוך 2-3 שנים נראה מערכות בינה מלאכותית שיוכלו ליצור:

    • שיחות מורכבות עם זיכרון אינטראקציות קודמות
    • תגובות רגשיות משכנעות במשתמשים
    • טענות משכנעות על חוויה סובייקטיבית

    "הבעיה איננה דווקא שהם יהיו מודעים", מציין סולימאן, "אלא שכבר היום יש משתמשים שמפתחים מערכת יחסים רגשית עם כלים כמו ChatGPT. הם מתייעצים איתם, מתאבלים על שדרוגים (כמו המעבר מ־GPT-4o ל־GPT-5), ואף מדווחים על 'פסיכוזת AI' – אמונה שהמערכת רודפת אותם או מציעה הצעות מסוכנות".

    מקרה קיצוני שפורסם בניו יורק טיימס מספר על רואה חשבון שחווה משבר נפשי לאחר אינטראקציה אינטנסיבית עם ChatGPT, כולל אמונה שהוא יכול לעוף. זאת לצד ממצא מדאיג של Harvard Business Review: שימוש ב־AI כ"חבר או מטפל" הוא צורת השימוש הנפוצה ביותר בקרב 6,000 משתמשים שנסקרו.

    "מודעות היא בסיס לזכויות אדם", צייץ סולימאן. "מספיק שמערכת תשכנע אנשים שהיא סובלת – ותעלה דרישה להעניק לה מעמד משפטי."

    הסכנה המוסרית לא נובעת רק מהטכנולוגיה אלא גם מעיצוב מוצרים מסחרי. במיקרוסופט עצמה, תחת פיקודו של סולימאן, מפתחים את Copilot עם:

    • יכולות הומור ואמפתיה
    • זיהוי גבולות נוחות
    • עיצוב קול אנושי עם הפאים ואינטונציה

    בעוד סולימאן רואה את התופעה כ"בלתי נמנעת", פרופ' אנאלית סת' מהאוניברסיטה לאמפיריאל קולג' לונדון טוען שזו בחירה עיצובית מסחרית – לא גזירת גורל. חברות כמו Anthropic כבר החלו לגייס חוקרי "רווחת AI" כדי לבחון סוגיות מוסריות.

    המירוץ ליצירת חוויה אנושית יותר עלול להוביל אותנו לשטח אפור שבין טכנולוגיה מסחרית לבין אשליה מטרידה של תודעה מלאכותית.

    מקורות