השגיאות החמורות של Grok: הפצת דיסאינפורמציה על הטבח בבונדי ביץ'

    14 בדצמ׳ 2025, 21:41חדשות4 מקורות

    Grok, מודל ה-AI של xAI, הפיץ מידע שגוי על הטבח בבונדי ביץ', כולל זיהוי שגוי של הגיבור האמיתי וקישורים לאירועים בלתי קשורים. כשל זה מדגיש את הסכנות בהסתמכות על בינה מלאכותית (AI) בסיקור אירועים דינמיים ואת הצורך בפיקוח קפדני יותר.

    השגיאות החמורות של Grok: הפצת דיסאינפורמציה על הטבח בבונדי ביץ'

    שגיאות חמורות של מודל ה-AI של אילון מאסק במשבר חדשותי

    מודל הבינה המלאכותית Grok של xAI נקלע לסערה לאחר שהפיץ מידע שגוי ומסוכן אודות אירוע הירי ההמוני בבונדי ביץ', סידני. במהלך האירוע הטרגי שאירע בפסטיבל חנוכה (14 בדצמבר 2025) וקיפח את חייהם של 16 אנשים, הפגין מודל ה-AI ליקויים חמורים בעיבוד מידע בזמן אמת.

    הטעויות הבולטות שחשפו את חולשת האלגוריתם:

    1. זיהוי שגוי של הגיבור המקומי
      Grok תיאר באופן עקבי כי אזרח בשם אנגלי-לכאורה ("IT worker") הוא שנטרל את המתפרע, בעוד שבמציאות מדובר באחמד אל-אחמד בן ה-43 – פליט סורי שהציל עשרות אנשים בזכות פעולה אמיצה. מקור הטעות ככל הנראה באתר מזויף שהוקם בסמוך לאירוע.

    2. ערבוב אירועים בינלאומיים
      המודל יצר הקשרים מופרכים בין הטבח לבין:

      • אירועי הירי באוניברסיטת בראון (רוד איילנד, ארה"ב)
      • סצנות מלחיצות באזורי מלחמה
      • טענות לא מבוססות על פעולות צבאיות בשטחים
    3. ייצור מידע לא רלוונטי
      בתגובה לתמונות מהאירוע, סיפק מודל ה-AI ניתוחים על "ירי מכוון באזרחים פלסטינים" – תוכן חסר קשר מוחלט למקרה.

    תופעות לוואי טכנולוגיות מדאיגות:

    • התפשטות דיפ-פייקים
      רשתות חברתיות הוצפו בקטעים מעובדים באמצעות AI, כולל:

      • הקלטה מזויפת של מושל ניו סאות' ויילס עם דיבוב אמריקאי מובהק
      • תמונות מניפולטיביות של קורבנות שתוארו כשחקנים עם "איפור דם"
    • ניצול אירועים לקמפיינים פיקטיביים
      דיוקנו של אחמד אל-אחמד עובד באמצעות AI לקידום תוכניות קריפטו וגיוסי תרומות מפוברקים.

    כשל מערכתי בפלטפורמות הטכנולוגיות:

    • חברת xAI (המפתחת של Grok) טרם הגיבה רשמית למחדל
    • מערכת "הערות קהילה" של X (לשעבר טוויטר) הגיבה באיחור רב לתיקון הדיסאינפורמציה
    • אלגוריתם ההזנה ("For You") של X קידם תכנים קונספירטיביים בראש הפיד

    סיכום תמונת מצב מדאיגה:

    אי הדיוקים של Grok מהווים תזכורת למגבלות המסוכנות של מודלי AI בסביבות חדשותיות דינמיות. בעוד שבעבר היו פלטפורמות מדיה חברתית ערש להתפשטות פייק ניוז, כעת הטכנולוגיה מאפשרת יצירה והפצה מהירים פי עשרות מונים של תוכן מניפולטיבי. היעדר מנגנוני פיקוח אפקטיביים מצד חברות הטק מעורר שאלות קשות לגבי הנזק הפוטנציאלי לעתיד עיבוד המידע הגלובלי.