פנים סינתטיות שנראות אמיתיות יותר: איך AI מטעה את המוח האנושי?

    27 בדצמ׳ 2025, 18:47חדשות2 מקורות

    מחקר חדש מגלה שמודלי AI יוצרים פנים היפר-ריאליסטיות שהמוח האנושי מתקשה לזהות. אפילו 'מזהים-על' (Super Recognizers) זיהו נכונה רק 41% מהדמויות, והציבור הרחב - 30% בלבד. הדרכה בת 5 דקות שיפרה את הזיהוי ל-64% ו-51% בהתאמה. הממצאים מעלים חששות משמעותיים לגבי זיוף זהויות ודיסאינפורמציה.

    פנים סינתטיות שנראות אמיתיות יותר: איך AI מטעה את המוח האנושי?

    המהפכה השקטה של ה־AI: כשפנים מדומות נראות אמיתיות יותר מהמציאות

    מחקר חדש שפורסם בכתב העת Royal Society Open Science חושף תמונה מדאיגה: פנים שנוצרו באמצעות מודל AI הגיעו לרמות ריאליזם כה גבוהות, עד כי מרבית הנבדקים – כולל אנשים בעלי זיהוי פנים יוצא דופן (Super Recognizers) – התקשו להבחין בינן לבין פנים אנושיות אמיתיות. במחקר שבוצע באוניברסיטת רידינג בבריטניה, התגלה כי:

    • נבדקים בעלי יכולות זיהוי פנים רגילות זיהו נכונה רק 30% מהפנים המלאכותיות.
    • קבוצת ה־Super Recognizers – שבדרך כלל מצטיינים בזיהוי פרצופים – זיהתה נכונה רק 41% מהתמונות שנוצרו ב־AI.
    • לאחר הדרכה קצרה של 5 דקות בלבד, שיעור הזיהוי הממוצע קפץ ל-51% בקבוצה הכללית ול-64% בקבוצת הזיהוי המתקדם.

    מדוע המוח האנושי מתקשה להתמודד עם ריאליזם דיגיטלי?

    מודלים כמו Generative Adversarial Networks (GANs) מייצרים כיום דמויות בסטנדרטים שלא נראו כמותם. ה־AI עובר תהליך דו־שלבי: יצירת דמות ובדיקה אם ניתן להבחין בינה לבין דמות אמיתית, עד שהיא מגיעה לרמת היפר-ריאליזם – מצב שבו דמויות מלאכותיות נתפסות כ"אמיתיות מדי" בעיני האדם.

    "הממצא המפתיע היה שכושר הזיהוי השתפר במידה דומה אצל שתי הקבוצות לאחר ההדרכה", מציינת ד"ר קייטי גריי, עורכת המחקר.

    מה כולל אימון הזיהוי – ומה מגבלותיו?

    ההדרכה שהגדילה את סיכויי הזיהוי כללה:

    1. הצגת טעויות רינדור אופייניות ביצירות AI – למשל:
      • שיניים בעיצוב מוזר ("שן אמצעית").
      • מרקם עור שאינו טבעי.
      • קו שיער לא סדיר.
      • אופן הנחת השיער על הפנים.
    2. תרגול אינטראקטיבי עם משוב מיידי.
    3. המתנה בין בחירות – הנבדקים האיטו את קצב השיפוט בלמעלה משנייה בממוצע.

    יחד עם זאת, החוקרים מדגישים כי עדיין לא נבדק האם האפקט נשמר לאורך זמן, והאם ניתן ליישם את ההדרכה כפתרון מעשי בעולם האמיתי.

    ההשלכות: מעבר לאתגר האקדמי

    לממצאים אלו השלכות קריטיות בתחומים הבאים:

    • פרטיות ואבטחת מידע: יכולת יצירת דמויות פיקטיביות משכנעות פותחת פתח לפעילויות הונאה מתקדמות.
    • זיהוי דיפייקים: הצורך בפיתוח כלים אוטומטיים לסינון תוכן מזויף הופך לדחוף יותר מאי פעם.
    • אמינות המידע: הסכנה לשימוש לרעה בטכנולוגיה לצרכי דיסאינפורמציה וזיוף זהויות.

    "המחקר מדגיש שעצירת השימוש ה'לוחמני' בטכנולוגיה זו היא משימה בלתי אפשרית", מסכמת גריי, "ולכן עלינו לפתח מערכות הגנה מבוססות מודל AI עם מעטפת אנושית – ושם ה־Super Recognizers עשויים להיות נכס קריטי".