הבוטים לא מבינים כשאנחנו מאמינים בשקרים
6 בנוב׳ 2025, 0:55•ניתוח•1 מקורות
מחקר חושף שצ'אטבוטים של AI מספקים תשובות מדויקות אך לא מבחינים כשמשתמשים מאמינים בשקרים. החוקרים מציינים שזו מגבלה קריטית בהקשרי חינוך והפצת מידע, וקוראים לפיתוח מערכות מודעות-הקשר שיידעו לאבחן אי-הבנות ולזהות אמונות במידע כוזב.

צ'אטבוטים של AI: מתעניינים בעובדות, מתעלמים מאמונות שגויות
מחקר חדש שפורסם ב-Euronews חושף נקודת תורפה קריטית בבוטים מבוססי בינה מלאכותית: בעוד הם מסוגלים לספק מידע מדויק, הם נכשלים בזיהוי כשמשתמשים מחזיקים בתפיסות שגומות או באמונות כזב.
החוקרים מצאו כי:
- הדגמים העכשוויים יודעים להשיב תשובות נכונות לשאלות ישירות
- הם חסרים יכולת לזהות מתוך ההקשר שמשתמש מאמין במידע שקרי
- זאת גם כאשר המשתמש מביע אי-הבנה ברורה או תפיסה מוטעית
"לשגיאות הללו יש השלכות מרחיקות לכת על שימוש בכלים אלו בהקשרים חינוכיים או בהפצת מידע אחראית"
המומחים ממליצים על פיתוח מערכות AI מודעות-הקשר (context-aware) שיכללו:
- יכולות אבחון מצבי ידע שגוי (misconceptions)
- מנגנונים לזיהוי אמונות בדיס-אינפורמציה
- התאמת התגובה לרמת ההבנה של המשתמש
המחקר מדגיש שבדור הבא של הבוטים, היכולת לספק מידע נכון בלבד אינה מספקת - נדרש גם פיתוח יכולות אנושיות יותר להבנת עומק ההקשר האנושי.