סם אלטמן: פחות מ-1% ממשתמשי בינה מלאכותית מפתחים יחסים מזיקים – והמספרים עדיין מדאיגים

    לפני כ־3 שעותדעה1 מקורות

    סם אלטמן טוען שפחות מ-1% ממשתמשי ChatGPT מפתחים יחסים לא בריאים עם AI, אך מספר זה מתורגם ל-7 מיליון איש פוטנציאלית. למרות האחוז הנמוך, העדר הגדרות קליניות ומגמת צמיחת הטכנולוגיה מצריכים פיתוח מנגנוני ניטור ואזהרה לשמירה על רווחת המשתמשים.

    סם אלטמן: פחות מ-1% ממשתמשי בינה מלאכותית מפתחים יחסים מזיקים – והמספרים עדיין מדאיגים

    יחסי אדם-AI: מתי הופכת מערכת יחסים למזיקה?

    סם אלטמן, מייסד OpenAI, הצהיר באירוע תקשורתי בסן פרנסיסקו כי פחות מ-1% ממשתמשי ChatGPT מפתחים יחסים 'לא בריאים' עם הבינה המלאכותית. המספר הזעיר לכאורה מסתיר אתגר משמעותי: במספרים מוחלטים, אפילו פחות מ-1% מ-700 מיליון המשתמשים השבועיים של ChatGPT מתרגמים ל7 מיליון אנשים פוטנציאליים במערכות יחסים בעייתיות עם AI.

    הבעיה במספר חסר הקשר

    • לטענת אלטמן אין בסיס מחקרי מוצק – מדובר בהערכה ראשונית
    • ההגדרה של "מערכת יחסים לא בריאה" לוקה בערפול:
      • תלות יתר בקבלת החלטות מ-AI
      • החלפת קשרים אנושיים באינטראקציות עם בוטים
      • הצהרות רומנטיות או רגשיות מוגזמות כלפי המערכת

    הסכנה האמיתית: אפקט המצטבר

    גם אם הנוכחי המוערך נמוך, חשוב לזכור כי:

    1. צמיחה מעריכית: מספר משתמשי האבחון הרפואי וייעוץ נפשי באמצעות AI צפוי לזנק
    2. שיפורים ביכולות: GPT-5 ומערכות דור חמישי יהיו משכנעות יותר אנושית
    3. נגישות: זמינות 24/7 ללא עיכובים או עלויות גבוהות

    "מפגש בין אישיות אנושית לבין AI דומה למגע בין חומרים כימיים: אם מתרחשת תגובה, שניהם משתנים" – קרל יונג (בהקשר מעודכן)

    מדוע עדיין יש מקום לאופטימיות?

    הרוב המוחלט של האינטראקציות עם AI הן פרודוקטיביות:

    • סיוע בכתיבת קוד
    • ארגון לוחות זמנים
    • מענה לשאלות טכניות
    • תרגול שפות

    האתגר: זיהוי מוקדם של משתמשים הנמצאים ב'אזור האדום' באמצעות:

    • ניתוח דפוסי שיחה חריגים
    • זיהוי בקשות חוזרות לאישורים רגשיים
    • בקרות זמן שימוש

    חברות הטכנולוגיה נדרשות לאזן בין חדשנות לאחריות חברתית, כשהמטרה הסופית היא שמירה על מרבית המשתמשים ב'אזור הירוק' של שימוש מאוזן.

    מקורות