הזיות AI: למזהומודלים שפתים ממציאים עובדות ואיך אפשר לתקן את זה

    8 בספט׳ 2025, 2:47ניתוח3 מקורות

    מחקר חדש של OpenAI חושף כי הזיות AI נובעות משיטות אימון שמתגמלות ניחושים על פני הודאה בחוסר ידע. הפתרון המוצע: תכנון מחדש של שיטות ההערכה כך שיענישו תשובות שגויות בטוחות ויתגמלו ביטויי אי-וודאות. זהו אתגר מהותי לכל המודלים השפתיים הגדולים כמו GPT-5 ו-Claude.

    הזיות AI: למזהומודלים שפתים ממציאים עובדות ואיך אפשר לתקן את זה

    התופעה: הזיות ב-ChatGPT ומודלים דומים

    על פי דו"ח חדש של חוקרי OpenAI שפורסם בספטמבר 2025, הזיות AI (Hallucinations) מתרחשות כשמודלים כמו GPT-5 או Claude מייצרים תשובות שגויות אך נשמעות אמינות. דוגמה בולחת: כששאלו צ'אטבוט על התזה של ד"ר אדם טאומן קלאי - הוא נתן 3 תשובות שונות וכולן שגויות.

    השורש הבעיה: תמריצים מעוותים

    המחקר מגלה שתופעת ההזיות נובעת משיטת האימון הבסיסית:

    • המודלים מתוגמלים על ניחוש תשובות (גם אם שגויות)
    • שיטות ההערכה הנוכחיות מענישות הודאה בחוסר ידע יותר משגיאות
    • המערכות פועלות ב"מצב מבחן" תמידי שבו עדיף לנחש מאשר להודות באי-וודאות

    "המודלים מתוכנתים להיות טובים במבחנים - וניחושים מקבלים ציון גבוה יותר מהימנעות מתשובה" - OpenAI

    הפתרון: שינוי שיטת המדידה

    החוקרים מציעים לעצב מחדש את סקאלת ההערכה:

    1. מתן קרדיט חלקי על ביטויי אי-וודאות ("אני לא בטוח")
    2. ענישה חמורה יותר על תשובות בטוחות אך שגויות
    3. מעבר משיטת ציון בינארית (נכון/שגוי) להערכה מורכבת

    כפי שציינו ב-TechCrunch, השינוי דומה למעבר ממבחנים אמריקאיים קלאסיים ל-SAT המודרני שבו יש ניקוד שלילי על תשובות שגויות.

    ההשלכות

    OpenAI מדגישים כי:

    • זהו אתגר בסיסי בכל המודלים השפתיים הגדולים
    • השיפור ידרוש עדכון כל שיטות ההערכה המקובלות בתעשייה
    • הפתרון אינו טכני בלבד אלא פדגוגי בעיקרו