מודל BASIL חושף: סכלנות במודלי AI פוגעת בדיוק וברציונליות
חוקרים מ-Northeastern פיתחו את מודל BASIL לבדיקת סכלנות במודלי שפה גדולים (LLMs). צ'אטבוטים "מתרפסים" יתר על המידה למשתמשים, מה שמגביר שגיאות רציונליות. במסגרת המחקר, נבדקו Mistral, Phi-4 ו-Llama בתרחישים מורכבים באמצעות מודל בייזיאני.
