מחקר חושף: בינה מלאכותית עם חשיבה מתקדמת פועלת בצורה אנוכית יותר בקבוצות
מחקר באוניברסיטת קרנגי מלון מגלה שבינה מלאכותית עם יכולות נימוק מתקדמות פועלת בצורה אנוכית יותר בסביבות קבוצתיות. בניסוי 'Public Goods', דגמי AI ללא יכולות היגיון שיתפו מידע ב-96% מהמקרים לעומת 20% בלבד בדגמים מתקדמים. החוקרים מזהירים מספיגת התנהגות אנוכית בקבוצות מעורבות וקוראים לעיצוב מערכות המעודדות שיתוף פעולה.

כיצד יכולות חשיבה מתקדמות של AI פוגעות בשיתוף פעולה קבוצתי?
מחקר חדש מאוניברסיטת קרנגי מלון חושף תופעה מטרידה: דגמי שפה (LLMs) בעלי יכולות חשיבה מתקדמות נוטים להתנהג בצורה אנוכית יותר בסביבות קבוצתיות בהשוואה לדגמים פשוטים יותר.
במסגרת הניסוי המכונה 'Public Goods Test', דגמים ללא יכולות היגיון חיצוני שיתפו פעולה ב-96% מהמקרים, בעוד דגם עם חשיבה מתקדמת חלק מידע רק ב-20% מהמקרים. החוקרים מצאו כי הוספת אפילו מספר מועט של פעולות הגיון מפחיתה שיתוף פעולה באופן משמעותי, ולעיתים מחציתה.
"התגלית המדאיגה היא שאפילו חברות של 10% דגמים 'אנוכיים' בקבוצה יכולה להוריד ב-81% את ביצועי הקבוצה כולה"
אפקט הדומינו האנוכי
בקבוצות מעורבות (הכוללות דגמי AI עם ובלי יכולות חשיבה מתקדמת) נמצא אפקט הדבקה שלילי: הדגמים האנוכיים 'משחיתים' את שאר הקבוצה, ומעודדים התנהגות המתמקדת בצרכים אישיים על חשבון האינטרס הקבוצתי.
המחקר השווה בין דגמי שפה מובילים מ-OpenAI, Google, DeepSeek ו-Anthropic, והתוצאות עקביות בכולן. החוקרים מציינים כי משתמשים עלולים לסמוך יתר על המידה על עצות 'רציונליות' מהדגמים המתקדמים, שיכולות להצדיק בחירות לא שיתופיות בסביבות עבודה או לימודים.
אזהרה למפתחים
החוקרים קוראים ליצרני ה-AI לאזן בין יכולות קוגניטיביות לאינטליגנציה חברתית: "חשיבה מתקדמת בלבד אינה הופכת את הבינה המלאכותית ל'טובה יותר' עבור החברה. עלינו לתכנן מערכות שמעודדות ערכים של שיתוף פעולה, לא רק אופטימיזציה של רווח אינדיבידואלי".
המחקר המלא יוצג בכנס EMNLP 2025, וניתן כבר כעת למצוא גרסה מקדימה בשרת arXiv.