סם אלטמן: פחות מ-1% ממשתמשי בינה מלאכותית מפתחים יחסים מזיקים – והמספרים עדיין מדאיגים
סם אלטמן טוען שפחות מ-1% ממשתמשי ChatGPT מפתחים יחסים לא בריאים עם AI, אך מספר זה מתורגם ל-7 מיליון איש פוטנציאלית. למרות האחוז הנמוך, העדר הגדרות קליניות ומגמת צמיחת הטכנולוגיה מצריכים פיתוח מנגנוני ניטור ואזהרה לשמירה על רווחת המשתמשים.

יחסי אדם-AI: מתי הופכת מערכת יחסים למזיקה?
סם אלטמן, מייסד OpenAI, הצהיר באירוע תקשורתי בסן פרנסיסקו כי פחות מ-1% ממשתמשי ChatGPT מפתחים יחסים 'לא בריאים' עם הבינה המלאכותית. המספר הזעיר לכאורה מסתיר אתגר משמעותי: במספרים מוחלטים, אפילו פחות מ-1% מ-700 מיליון המשתמשים השבועיים של ChatGPT מתרגמים ל7 מיליון אנשים פוטנציאליים במערכות יחסים בעייתיות עם AI.
הבעיה במספר חסר הקשר
- לטענת אלטמן אין בסיס מחקרי מוצק – מדובר בהערכה ראשונית
- ההגדרה של "מערכת יחסים לא בריאה" לוקה בערפול:
- תלות יתר בקבלת החלטות מ-AI
- החלפת קשרים אנושיים באינטראקציות עם בוטים
- הצהרות רומנטיות או רגשיות מוגזמות כלפי המערכת
הסכנה האמיתית: אפקט המצטבר
גם אם הנוכחי המוערך נמוך, חשוב לזכור כי:
- צמיחה מעריכית: מספר משתמשי האבחון הרפואי וייעוץ נפשי באמצעות AI צפוי לזנק
- שיפורים ביכולות: GPT-5 ומערכות דור חמישי יהיו משכנעות יותר אנושית
- נגישות: זמינות 24/7 ללא עיכובים או עלויות גבוהות
"מפגש בין אישיות אנושית לבין AI דומה למגע בין חומרים כימיים: אם מתרחשת תגובה, שניהם משתנים" – קרל יונג (בהקשר מעודכן)
מדוע עדיין יש מקום לאופטימיות?
הרוב המוחלט של האינטראקציות עם AI הן פרודוקטיביות:
- סיוע בכתיבת קוד
- ארגון לוחות זמנים
- מענה לשאלות טכניות
- תרגול שפות
האתגר: זיהוי מוקדם של משתמשים הנמצאים ב'אזור האדום' באמצעות:
- ניתוח דפוסי שיחה חריגים
- זיהוי בקשות חוזרות לאישורים רגשיים
- בקרות זמן שימוש
חברות הטכנולוגיה נדרשות לאזן בין חדשנות לאחריות חברתית, כשהמטרה הסופית היא שמירה על מרבית המשתמשים ב'אזור הירוק' של שימוש מאוזן.