כנס ICLR 2026: 21% מביקורות העמיתים נוצרו על ידי AI

    1 בדצמ׳ 2025, 12:01חדשות2 מקורות

    בכנס ICLR 2026, 21% מביקורות העמיתים נמצאו כמיוצרות במלואן על ידי AI, ומעל למחציתן הציגו סימני AI. 1% מהמאמרים היו תוצר AI מלא. חוקרים הסירו הגשות בשל טענות שקריות, מה שמעורר משבר בשלמות האקדמית.

    כנס ICLR 2026: 21% מביקורות העמיתים נוצרו על ידי AI

    מבול של תוכן AI בביקורות ובמאמרים בכנס ה-AI הגדול בעולם

    הכנס הבין-לאומי הגדול ביותר בתחום למידת מכונה ובינה מלאכותית, International Conference on Learning Representations (ICLR) 2026, עומד בפני משבר חמור. הכנס, שיתקיים בברזיל וצפוי לארח כ-11,000 חוקרי AI, סבל ממבול של תוכן שנוצר על ידי בינה מלאכותית בביקורות העמיתים ובמאמרים שהוגשו אליו. דיווחים מצביעים על כך ש-21% מביקורות העמיתים היו תוצר מלא של AI, ומעל למחציתן הציגו סימנים לשימוש ב-AI.

    ניתוח מקיף של Panagram

    הנתונים מבוססים על ניתוח שביצעה Panagram, חברת סטארט-אפ אמריקאית המספקת כלים לזיהוי תוכן שנוצר על ידי AI. החברה בדקה את כל 19,490 המאמרים שהוגשו ואת 75,800 ביקורות העמיתים. בכל הנוגע למאמרים עצמם, הבעיה הייתה פחות חמורה, אך עדיין משמעותית: 199 מאמרים (1%) היו תוצר מלא של AI, בעוד 9% מהמאמרים הכילו יותר מ-50% טקסט שנוצר על ידי AI. הנתונים הללו הם מפעולת Panagram בלבד, ולא אומתו באופן עצמאי עד כה.

    חשדות ראשוניים שהובילו לחקירה

    החקירה החלה בעקבות חשדות של חוקרים בכירים. גרהם נויביג (Graham Neubig), חוקר AI מאוניברסיטת Carnegie Mellon, קיבל ביקורת עמיתים שנראתה לו כתוצר AI. הוא פנה ל-Panagram דרך רשתות חברתיות כדי לבדוק את העניין, מה שהוביל לניתוח המקיף.

    במקרה אחר, דסמונד אליוט (Desmond Elliott), מדען מחשבים מאוניברסיטת קופנהגן, סיפר כי ביקורת על עבודת תלמידו שלו "פספסה את הנקודה המרכזית של המאמר". התלמיד חשד כי מדובר בתוצר של מודל שפה גדול (LLM), ובדיקת Panagram אישרה כי הביקורת הייתה במלואה תוצר AI, מה שאישר את "תחושת הבטן" שלהם.

    השפעות מיידיות על הכנס

    השימוש הנרחב בביקורות AI כבר משפיע באופן ממשי. רבים מהמחברים הסירו את הגשותיהם ל-ICLR לאחר שקיבלו ביקורות שכללו טענות שקריות. מצב זה מעלה חששות כבדים לגבי השלמות האקדמית ואמינות תהליכי ההערכה במחקר AI.

    נויביג אמר כי "בתחום ה-AI ולמידת מכונה יש כרגע משבר בביקורת, כי התחום גדל באופן אקספוננציאלי בחמש השנים האחרונות". הציטוט מדגיש את האתגר: התרחבות מהירה של התחום מקשה על שמירה על תהליכי ביקורת איכותיים.

    הקשר הרחב יותר של שימוש בלתי הולם ב-AI

    התופעה אינה מוגבלת לכנס זה. מאז שהפכו כלים כמו ChatGPT לנגישים, שימוש בלתי הולם ב-AI הפך לבעיה מרכזית בחינוך – חלק מהמורים בארה"ב חזרו לכתיבה ידנית בכיתה כדי למנוע הונאות. כעת, הבעיה חודרת גם למקצוענים מיומנים. דיווחים מציינים תוכן AI במקרים משפטיים חמורים בארה"ב, כולל הזיות של מודלי LLM לגבי תיקים קודמים שאינם קיימים. בתחומים כמו IT וייעוץ, "עבודת AI" הפכה לתופעה נפוצה.

    בכנסים כמו ICLR, שבהם ביקורת עמיתים היא עמוד תווך של פרסום מדעי איכותי, התופעה מערערת את הבסיס. חוקרים נאלצים להתמודד עם ביקורות אוטומטיות שאינן מבינות את הניואנסים של המחקר, מה שפוגע באמינות התהליך כולו.

    מה הלאה?

    הדיווחים הללו, שפורסמו לאחרונה, מעלים שאלות דחופות: כיצד ניתן להבטיח ביקורת אמיתית בעידן ה-AI? כלים כמו אלה של Panagram עשויים לסייע בזיהוי, אך הם אינם פתרון מושלם. עבור קהילת חוקרי ה-AI בישראל ובמקומות אחרים, הממצאים הללו הם אזהרה: התחום מתקדם במהירות, אך יש לשמור על האמינות.

    הנתונים מדגישים את הצורך בפיתוח מנגנונים חדשים לביקורת, כולל אימות אנושי מחמיר יותר, כדי לשמור על איכות המחקר בעולם שבו AI יכול לייצר טקסט משכנע אך לא בהכרח מדויק.