AI חוללה מהפכה ביצירת תמונות: אי אפשר להבדיל בין מציאות לזיוף
מחקר בינלאומי עם השתתפות ישראלי מגלה כי תמונות AI של אנשים מוכרים (כולל סלבריטאים) בלתי ניתנות להבחנה מצילומים אמיתיים. במבחנים עם אלפי משתתפים, אפילו הכרות עם הדמות לא סייעה בזיהוי הזיוף. החוקרים מזהירים מפני השלכות על אמון הציבור ודורשים פיתוח דחוף של כלי איתור.

המחקר החדש: AI מייצר תמונות מציאותיות בלתי ניתנות להבחנה
מחקר חדש שפורסם בכתב העת Cognitive Research: Principles and Implications חושף כי מערכות בינה מלאכותית כמו ChatGPT ו-DALL·E מסוגלות לייצר תמונות כה מציאותיות עד כי בני אדם אינם יכולים להבחין בינן לבין צילומים אמיתיים - אפילו כאשר מדובר בדמויות מוכרות.
צוות חוקרים מאוניברסיטת סוונסי (בריטניה), לינקולן ו-אריאל בישראל יצרו תמונות של:
- פרצופים בדיוניים
- דמויות מפורסמות כמו פול ראד ו-אוליביה ויילד
הניסויים המפתיעים
בארבעה ניסויים נפרדים עם משתתפים מ:
- ארה"ב
- קנדה
- בריטניה
- אוסטרליה
- ניו זילנד
התגלה כי:
- אפילו הכרות מוקדמת עם הדמות לא סייעה בזיהוי התמונות המזויפות
- השוואה בין תמונות מקוריות למזויפות סיפקה תועלת מוגבלת בלבד
"יכולת ה-AI ליצור תמונות סינתטיות מדויקות של אנשים אמיתיים מערערת את האמון במדיה החזותית"
פרופ' ג'רמי טרי, אוניברסיטת סוסי
השלכות המחקר
הטכנולוגיה החדשה מאפשרת:
- יצירת "דיפ פייק" משוכללים של ידוענים
- הפצת דיסאינפורמציה ברמות חסרות תקדים
- זיוף תמיכה של סלבריטאים במוצרים או עמדות פוליטיות
לטענת החוקרים, נדרשים בדחיפות:
- כלים אוטומטיים יעילים לאיתור זיופים
- מודעות ציבורית לסכנות הטמונות בטכנולוגיה זו
המחקר המלא זמין כאן.