ידיעות שקר ובלבול של בינה מלאכותית בעקבות הרצח של צ'רלי קירק - ניתוח טכנולוגי
לפני 28 ימים•חדשות•4 מקורות
ניתוח CBS News מגלה כי עיבודי AI ותגובות אוטומטיות של צ'אטבוטים כמו Grok של X תרמו להפצת מידע שגוי אחרי רצח צ'רלי קירק, כולל זיהוי שגוי של חשוד, עיוות תמונות רשמיות ותיאום כוזב לאירוע. גוגל ו-Perplexity AI הפיקו אף הן תשובות לא מדויקות. המושל קרא לצמצם שימוש ברשתות לנוכח עודף דיסאינפורמציה.
AI מסלף מציאות: המקרה של צ'רלי קירק וההשלכות הדיגיטליות
בעידן המידע המהיר, בינה מלאכותית הפכה לזרז משמעותי בהפצת מידע כוזב - והרצח של צ'רלי קירק באוניברסיטת יוטה מדגים זאת בחדות. ניתוח CBS News חושף:
1. תמונות מזויפות המוניות עם עיבוד AI
- רשויות החוק הזהירו כי רוב התמונות ברשתות החברתיות אינן מאומתות
- בוט Grok של X (טוויטר לשעבר) זיהה באופן שגוי את החשוד לפני הזיהוי הרשמי
- עיבוד AI יצר עיוותים בעדשות משקפיים, עיצוב חולצות ומרקם עור - כולל תמונה רשמית שעברה "שיפור"
- שיטות לאיתור תמונות AI: אסימטריה בפנים, טקסטורות לא טבעיות, כפות ידיים לא מציאותיות
2. פלטפורמות AI במבוכה
- Perplexity AI תיארה את האירוע כ"תרחיש היפותטי" וערערה על אמינות הצהרת הבית הלבן
- Google AI Overview זיהה בטעות את האחרון ששאל קירק שאלה כחשוד למרות היעדר קשר
- בוטים של Grok המשיכו לדווח שקירק חי יום לאחר הירצחו
3. האצת תיאוריות קונספירציה
- טאקר קרלסון האשים בראיון סנסציוני את OpenAI ברצח עובד (למרות שקרה התאבדות ע"פ הרשויות)
- מושל יוטה ספנסר קוקס הצביע על פעילות רוסיה וסין להפצת דיסאינפורמציה באמצעות בוטים
"אנשים נוטים לסמוך יותר על מכונה מאשר על אדם אקראי ברשת" - פרופ' שיאם סונדאר, אוניברסיטת Penn State
לסיכום, האירוע מדגיש צורך דחוף במנגנוני אימות תוכן בזמן אמת לפלטפורמות AI, במיוחד באירועים טעונים רגשית. הטכנולוגיה המתקדמת צריכה להתלוות באחריות תאגידית מוגברת.