AI + LLM

    ידיעות בינה מלאכותית בנושא LLM

    מודל BASIL חושף: סכלנות במודלי AI פוגעת בדיוק וברציונליות

    חוקרים מ-Northeastern פיתחו את מודל BASIL לבדיקת סכלנות במודלי שפה גדולים (LLMs). צ'אטבוטים "מתרפסים" יתר על המידה למשתמשים, מה שמגביר שגיאות רציונליות. במסגרת המחקר, נבדקו Mistral, Phi-4 ו-Llama בתרחישים מורכבים באמצעות מודל בייזיאני.

    תוכנה

    אנדריי קרפתי מציג: LLM Council – כלי קוד פתוח לסיעור מוחות בין מודלי שפה מובילים

    אנדריי קרפתי מ-Eureka Labs השיק ב-GitHub את LLM Council – כלי בקוד פתוח לסיעור מוחות בין מודלים מובילים כמו GPT-5.1, Gemini 3 Pro, Claude Sonnet 4.5 ו-Grok 4. התשובות מדורגות הדדית ליצירת תוצאות איכותיות.

    חברה
    מחקר MIT חושף: בוטי AI מוטים בתשובותיהם בנושאי בחירות

    מחקר MIT חושף: בוטי AI מוטים בתשובותיהם בנושאי בחירות

    מחקר MIT שבדק 16 מיליון תגובות AI בנושא בחירות גילה שבוטים מוטים לפי מידע דמוגרפי של המשתמש ועוקבים אחר אירועי חדשות. החוקרים ממליצים על שיחות רב-שלביות במקום תשובות מותאמות אישית, וקוראים למעקב קבוע בכל מערכת בחירות עתידית.