הבוטים לא מבינים כשאנחנו מאמינים בשקרים

    6 בנוב׳ 2025, 0:55ניתוח1 מקורות

    מחקר חושף שצ'אטבוטים של AI מספקים תשובות מדויקות אך לא מבחינים כשמשתמשים מאמינים בשקרים. החוקרים מציינים שזו מגבלה קריטית בהקשרי חינוך והפצת מידע, וקוראים לפיתוח מערכות מודעות-הקשר שיידעו לאבחן אי-הבנות ולזהות אמונות במידע כוזב.

    הבוטים לא מבינים כשאנחנו מאמינים בשקרים

    צ'אטבוטים של AI: מתעניינים בעובדות, מתעלמים מאמונות שגויות

    מחקר חדש שפורסם ב-Euronews חושף נקודת תורפה קריטית בבוטים מבוססי בינה מלאכותית: בעוד הם מסוגלים לספק מידע מדויק, הם נכשלים בזיהוי כשמשתמשים מחזיקים בתפיסות שגומות או באמונות כזב.

    החוקרים מצאו כי:

    • הדגמים העכשוויים יודעים להשיב תשובות נכונות לשאלות ישירות
    • הם חסרים יכולת לזהות מתוך ההקשר שמשתמש מאמין במידע שקרי
    • זאת גם כאשר המשתמש מביע אי-הבנה ברורה או תפיסה מוטעית

    "לשגיאות הללו יש השלכות מרחיקות לכת על שימוש בכלים אלו בהקשרים חינוכיים או בהפצת מידע אחראית"

    המומחים ממליצים על פיתוח מערכות AI מודעות-הקשר (context-aware) שיכללו:

    1. יכולות אבחון מצבי ידע שגוי (misconceptions)
    2. מנגנונים לזיהוי אמונות בדיס-אינפורמציה
    3. התאמת התגובה לרמת ההבנה של המשתמש

    המחקר מדגיש שבדור הבא של הבוטים, היכולת לספק מידע נכון בלבד אינה מספקת - נדרש גם פיתוח יכולות אנושיות יותר להבנת עומק ההקשר האנושי.