AI יוצרת קהלים מזויפים: הטכנולוגיה שעלולה לערער את האמון במציאות

    לפני 7 ימיםניתוח1 מקורות

    כלי AI ליצירת וידאו משתפרים ביצירת סצנות קהל מציאותיות, מקשים על זיהוי זיופים ומאיימים על אמינות אירועים ציבוריים. חברות הטק מפתחות סמני מים לסימון תוכן AI, אך חסר תקן תעשייתי אחיד - וכלי הסימון הנוכחיים לא מספקים הגנה מלאה.

    AI יוצרת קהלים מזויפים: הטכנולוגיה שעלולה לערער את האמון במציאות

    דור חדש של AI מצליח ליצור קהלים מציאותיים - וזה מדאיג

    כלי וידאו מבוססי בינה מלאכותית כמו Sora של OpenAI ו-Veo של Google משתפרים ביכולתם ליצור סצנות קהל מורכבות - אתגר טכנולוגי משמעותי עד לא מזמן. "אנחנו מנהלים כמות עצומה של פרטים", מסבירה קייט ג'אנה, חוקרת AI מסן פרנסיסקו. "כל אדם בקהל זז באופן עצמאי, עם תווי פנים ייחודיים, בגדים ופריטים אישיים".

    הסכנה החברתית: מציאות מתערפלת

    עם שיפור האיכות, עולה החשש ל"עירפול גבולות המציאות" תוך כשנה בלבד לפי הערכות. הדבר מסוכן במיוחד בהקשר של אירועים ציבוריים בעלי משמעות חברתית-פוליטית:

    • עצרות פוליטיות עם קהלים "מתוגברים" דיגיטלית
    • הפגנות שמימדיהן עלולים להיות מעוותים
    • מחאות שסצנות מהן יוכתמו כ"זיוף AI"

    דוגמא בולטת: ב-אוגוסט 2024 טען דונלד טראמפ שתומכי קמלה האריס "זייפו קהל" באמצעות AI - ללא הוכחות.

    מאבק הטק-ענקיות בזיופים

    חברות הטכנולוגיה מנסות לאזן בין חדשנות למניעת נזקים:

    • גוגל מסמנת תוכן שנוצר ב-Veo באמצעות שני סוגי סימני מים: גלוי (watermark קטן בפינה) וסמוי (SynthID)
    • מטא (בעלת אינסטגרם) מסמנת תוכן AI כשמשתמשים חושפים זאת או כשהמערכת מזהה אותו
    • טיקטוק מחייבת סימון תוכן ריאליסטי שנוצר או עוּבד ב-AI

    למרות זאת, חסם טכני משמעותי נותר: אין תקן תעשייתי אחיד לסימון תוכן שתוכנן על ידי בינה מלאכותית.

    מקורות

    AI יוצרת קהלים מזויפים: הטכנולוגיה שעלולה לערער את האמון במציאות | FOMO AI