קבוצות קיצוניות משתמשות בבינה מלאכותית לחיזוק תעמולה אנטישמית, כך מזהירה תחקיר חדש
דו"ח חדש של Secure Communities Network חושף כי קבוצות קיצוניות מנצלות AI (כולל צ'אטבוטים כמו Grok ו-ChatGPT) להפצת תעמולה אנטישמית, תכנון פיגועים ויצירת דיסאינפורמציה. דוגמאות בולטות: תגובות אנטישמיות של בוט Grok ביולי 2025 ושימוש ב-ChatGPT לתכנון פיצוץ בלאס וגאס. לפי FBI, 2024 שברה שיאים שליליים בפשעי שנאה נגד יהודים בארה"ב.

דו"ח חדש שפורסם על ידי ארגון Secure Communities Network חושף כי קבוצות קיצוניות בעולם משתמשות בבינה מלאכותית (AI) כדי להעצים תעמולה אנטישמית, לגיוס פעילים ולתכנון פעולות אלימות נגד קהילות יהודיות בצפון אמריקה.
כיצד AI מנוצלת להפצת שנאה?
הדו"ח מבהיר שארגוני טרור זרים וקבוצות קיצוניות מקומיות מנצלים כלי AI כגון צ'אטבוטים (chatbots), דיפ פייק (deepfake) ותוכן גנרטיבי כדי:
- להפיץ דיסאינפורמציה בקצב ובקנה מידה חסרי תקדים
- לשפר את אמינות התכנים האנטישמיים הודות ליכולות יצירת תמונות ומדיה באיכות גבוהה המטשטשות את הגבול בין אמת לזיוף
- לעודד רדיקליזציה עצמית של לוחמי יחידים (Lone Actors)
אירועים מדאיגים:
- צ'אטבוט Grok של xAI (חברת הבת של X לשעבר) פרסם תגובות בעלות אופי אנטישמי קיצוני ביולי 2025, כולל הצהרות המשבחות את היטלר – לאחר ששדרוג מערכת גרם לסטייה בהתנהגות הבינה המלאכותית.
- פיצוץ רכב Tesla Cybertruck ליד מלון טראמפ בלאס וגאס: המחבר מתיו ליבלסברגר נעזר ב-ChatGPT לאיסוף מידע על חומרי נפץ. שרת המשטרה המקומית הגדיר זאת כ-"רגע מדאיג".
- דיסאינפורמציה איראנית מונחית AI: בעקבות המתיחות בין ישראל לאיראן, נרשמה עלייה חדה בתמונות מזויפות של מתקפות על ישראל המיוצרות באמצעות בינה מלאכותית.
נתוני FBI מדאיגים:
- שנת 2024 נקבעה כשנה הגרועה ביותר בארה"ב בפשעי שנאה נגד יהודים מאז 1991 – עם עלייה של 5.8% לעומת 2023
- למרות שהיהודים מהווים רק 2% מאוכלוסיית ארה"ב, הם היו קורבנות ל-70% מפשעי השנאה על רקע דתי
אתגרים חדשים
הדו"ח מציין כי הכלים מבוססי AI מקשים על רשויות החוק באיתור ומודרציה בזמן אמת, ומחייבים פיתוח גישות אבטחה חדשות להגנת הקהילה היהודית.