הזיות AI: למזהומודלים שפתים ממציאים עובדות ואיך אפשר לתקן את זה
מחקר חדש של OpenAI חושף כי הזיות AI נובעות משיטות אימון שמתגמלות ניחושים על פני הודאה בחוסר ידע. הפתרון המוצע: תכנון מחדש של שיטות ההערכה כך שיענישו תשובות שגויות בטוחות ויתגמלו ביטויי אי-וודאות. זהו אתגר מהותי לכל המודלים השפתיים הגדולים כמו GPT-5 ו-Claude.

התופעה: הזיות ב-ChatGPT ומודלים דומים
על פי דו"ח חדש של חוקרי OpenAI שפורסם בספטמבר 2025, הזיות AI (Hallucinations) מתרחשות כשמודלים כמו GPT-5 או Claude מייצרים תשובות שגויות אך נשמעות אמינות. דוגמה בולחת: כששאלו צ'אטבוט על התזה של ד"ר אדם טאומן קלאי - הוא נתן 3 תשובות שונות וכולן שגויות.
השורש הבעיה: תמריצים מעוותים
המחקר מגלה שתופעת ההזיות נובעת משיטת האימון הבסיסית:
- המודלים מתוגמלים על ניחוש תשובות (גם אם שגויות)
- שיטות ההערכה הנוכחיות מענישות הודאה בחוסר ידע יותר משגיאות
- המערכות פועלות ב"מצב מבחן" תמידי שבו עדיף לנחש מאשר להודות באי-וודאות
"המודלים מתוכנתים להיות טובים במבחנים - וניחושים מקבלים ציון גבוה יותר מהימנעות מתשובה" - OpenAI
הפתרון: שינוי שיטת המדידה
החוקרים מציעים לעצב מחדש את סקאלת ההערכה:
- מתן קרדיט חלקי על ביטויי אי-וודאות ("אני לא בטוח")
- ענישה חמורה יותר על תשובות בטוחות אך שגויות
- מעבר משיטת ציון בינארית (נכון/שגוי) להערכה מורכבת
כפי שציינו ב-TechCrunch, השינוי דומה למעבר ממבחנים אמריקאיים קלאסיים ל-SAT המודרני שבו יש ניקוד שלילי על תשובות שגויות.
ההשלכות
OpenAI מדגישים כי:
- זהו אתגר בסיסי בכל המודלים השפתיים הגדולים
- השיפור ידרוש עדכון כל שיטות ההערכה המקובלות בתעשייה
- הפתרון אינו טכני בלבד אלא פדגוגי בעיקרו
מקורות
