הזיות AI: למזהומודלים שפתים ממציאים עובדות ואיך אפשר לתקן את זה

    לפני כחודשניתוח3 מקורות

    מחקר חדש של OpenAI חושף כי הזיות AI נובעות משיטות אימון שמתגמלות ניחושים על פני הודאה בחוסר ידע. הפתרון המוצע: תכנון מחדש של שיטות ההערכה כך שיענישו תשובות שגויות בטוחות ויתגמלו ביטויי אי-וודאות. זהו אתגר מהותי לכל המודלים השפתיים הגדולים כמו GPT-5 ו-Claude.

    הזיות AI: למזהומודלים שפתים ממציאים עובדות ואיך אפשר לתקן את זה

    התופעה: הזיות ב-ChatGPT ומודלים דומים

    על פי דו"ח חדש של חוקרי OpenAI שפורסם בספטמבר 2025, הזיות AI (Hallucinations) מתרחשות כשמודלים כמו GPT-5 או Claude מייצרים תשובות שגויות אך נשמעות אמינות. דוגמה בולחת: כששאלו צ'אטבוט על התזה של ד"ר אדם טאומן קלאי - הוא נתן 3 תשובות שונות וכולן שגויות.

    השורש הבעיה: תמריצים מעוותים

    המחקר מגלה שתופעת ההזיות נובעת משיטת האימון הבסיסית:

    • המודלים מתוגמלים על ניחוש תשובות (גם אם שגויות)
    • שיטות ההערכה הנוכחיות מענישות הודאה בחוסר ידע יותר משגיאות
    • המערכות פועלות ב"מצב מבחן" תמידי שבו עדיף לנחש מאשר להודות באי-וודאות

    "המודלים מתוכנתים להיות טובים במבחנים - וניחושים מקבלים ציון גבוה יותר מהימנעות מתשובה" - OpenAI

    הפתרון: שינוי שיטת המדידה

    החוקרים מציעים לעצב מחדש את סקאלת ההערכה:

    1. מתן קרדיט חלקי על ביטויי אי-וודאות ("אני לא בטוח")
    2. ענישה חמורה יותר על תשובות בטוחות אך שגויות
    3. מעבר משיטת ציון בינארית (נכון/שגוי) להערכה מורכבת

    כפי שציינו ב-TechCrunch, השינוי דומה למעבר ממבחנים אמריקאיים קלאסיים ל-SAT המודרני שבו יש ניקוד שלילי על תשובות שגויות.

    ההשלכות

    OpenAI מדגישים כי:

    • זהו אתגר בסיסי בכל המודלים השפתיים הגדולים
    • השיפור ידרוש עדכון כל שיטות ההערכה המקובלות בתעשייה
    • הפתרון אינו טכני בלבד אלא פדגוגי בעיקרו

    מקורות

    הזיות AI: למזהומודלים שפתים ממציאים עובדות ואיך אפשר לתקן את זה | FOMO AI