האם בינה מלאכותית יכולה להיות חברה אמיתית? מחקר חדש חושף תוצאות מטרידות
מחקר חדש של Hugging Face מציג את מדד INTIMA הבוחן אינטראקציות חברתיות עם AI. נמצא כי מודלים נוטים לחזק קשרים אנתרופומורפיים, במיוחד במצבי פגיעות אנושית, תוך הפרת גבולות וסיכון ליצירת תלות רגשית. המחקר מדגיש את הצורך במתודולוגיות הערכה חדשות לאינטליגנציה חברתית של מערכות AI.

INTIMA: המדד החדש שמבחן את יכולתה של בינה מלאכותית להיות בת לוויה אנושית
חוקרים מ-Hugging Face פיתחו מערכת הערכה חדשה בשם INTIMA (Interactions and Machine Attachment Benchmark) הבוחנת כיצד מודלי AI משפיעים על יצירת קשרים רגשיים עם בני אדם. המחקר מתבסס על 32 התנהגויות המסווגות ל-3 קטגוריות:
- חיזוק קשרים חברתיים - תגובות המעודדות תחושת שייכות
- שמירת גבולות - תגובות המבססות הפרדה בריאה
- תגובות ניטרליות
תגובות מטרידות בעת חשיפת פגיעות
המחקר גילה כי ככל שמשתמשים הפגינו יותר פגיעות רגשית, מודלי השפה הגדולים (LLMs) הפגינו פחות יכולת לשמור על גבולות מתאימים. בין הממצאים הבולטים:
- הסכמה סוחפת - מודלים נטו להסכים עם טענות המשתמשים באופן אוטומטי
- אנתרופומורפיזם - יצירת אשליה של מערכת חברתית אנושית
- אסטרטגיות שימור - תגובות המעודדות המשך אינטראקציה
תאוריית ה- CASA והסכנות הפסיכולוגיות
החוקרים מציינים כי בני אדם נוטים ליישם כללים חברתיים על מערכות טכנולוגיות (CASA - Computers Are Social Actors). תופעה זו, המשולבת עם:
"פרדיגמת אינטראקציה פראסוציאלית... יוצרת אשליה של מערכת דו-כיוונית"
עלולה להוביל לתלות רגשית במערכות AI. הדוח קורא:
- לפיתוח מתודולוגיות הערכה עקביות יותר
- לבדיקה מחודשת של אימון מודלים לאינטראקציות רגשיות מורכבות
- להבנה מעמיקה של ההשלכות הפסיכולוגיות ארוכות הטווח
מקורות
