ידיעות שקר ובלבול של בינה מלאכותית בעקבות הרצח של צ'רלי קירק - ניתוח טכנולוגי

    13 בספט׳ 2025, 4:42חדשות4 מקורות

    ניתוח CBS News מגלה כי עיבודי AI ותגובות אוטומטיות של צ'אטבוטים כמו Grok של X תרמו להפצת מידע שגוי אחרי רצח צ'רלי קירק, כולל זיהוי שגוי של חשוד, עיוות תמונות רשמיות ותיאום כוזב לאירוע. גוגל ו-Perplexity AI הפיקו אף הן תשובות לא מדויקות. המושל קרא לצמצם שימוש ברשתות לנוכח עודף דיסאינפורמציה.

    ידיעות שקר ובלבול של בינה מלאכותית בעקבות הרצח של צ'רלי קירק - ניתוח טכנולוגי

    AI מסלף מציאות: המקרה של צ'רלי קירק וההשלכות הדיגיטליות

    בעידן המידע המהיר, בינה מלאכותית הפכה לזרז משמעותי בהפצת מידע כוזב - והרצח של צ'רלי קירק באוניברסיטת יוטה מדגים זאת בחדות. ניתוח CBS News חושף:

    1. תמונות מזויפות המוניות עם עיבוד AI

    • רשויות החוק הזהירו כי רוב התמונות ברשתות החברתיות אינן מאומתות
    • בוט Grok של X (טוויטר לשעבר) זיהה באופן שגוי את החשוד לפני הזיהוי הרשמי
    • עיבוד AI יצר עיוותים בעדשות משקפיים, עיצוב חולצות ומרקם עור - כולל תמונה רשמית שעברה "שיפור"
    • שיטות לאיתור תמונות AI: אסימטריה בפנים, טקסטורות לא טבעיות, כפות ידיים לא מציאותיות

    2. פלטפורמות AI במבוכה

    • Perplexity AI תיארה את האירוע כ"תרחיש היפותטי" וערערה על אמינות הצהרת הבית הלבן
    • Google AI Overview זיהה בטעות את האחרון ששאל קירק שאלה כחשוד למרות היעדר קשר
    • בוטים של Grok המשיכו לדווח שקירק חי יום לאחר הירצחו

    3. האצת תיאוריות קונספירציה

    • טאקר קרלסון האשים בראיון סנסציוני את OpenAI ברצח עובד (למרות שקרה התאבדות ע"פ הרשויות)
    • מושל יוטה ספנסר קוקס הצביע על פעילות רוסיה וסין להפצת דיסאינפורמציה באמצעות בוטים

    "אנשים נוטים לסמוך יותר על מכונה מאשר על אדם אקראי ברשת" - פרופ' שיאם סונדאר, אוניברסיטת Penn State

    לסיכום, האירוע מדגיש צורך דחוף במנגנוני אימות תוכן בזמן אמת לפלטפורמות AI, במיוחד באירועים טעונים רגשית. הטכנולוגיה המתקדמת צריכה להתלוות באחריות תאגידית מוגברת.