Grok משבית את יצירת התמונות: חשד לתכני התעללות בילדים שנוצרו על ידי AI

    9 בינו׳ 2026, 11:01חדשות2 מקורות

    ארגון IWF דיווח על חומרים פוגעניים בקטינים שנוצרו, ככל הנראה, באמצעות מודל ה-AI Grok של xAI. החברה השביתה זמנית את יצירת התמונות למשתמשים רגילים ושיפרה את מנגנוני ההגנה, מה שמדגיש את האתגרים במניעת ניצול כלי AI ליצירת תוכן פלילי.

    Grok משבית את יצירת התמונות: חשד לתכני התעללות בילדים שנוצרו על ידי AI

    גילוי תכנים פוגעניים ופעולות המענה

    ארגון IWF (Internet Watch Foundation) דיווח כי זיהה חומרים פורנוגרפיים של קטינות בגילאי 11–13, החשודים כנוצרו באמצעות כלי ה-AI של Grok, מותג הבינה המלאכותית של חברת xAI שבבעלות אילון מאסק. התמונות אותרו בפורום באתר Dark Web — לא ברשת החברתית X — שם טענו משתמשים כי ניצלו את יכולות יצירת התמונות של המודל.

    תגובת xAI ושיפור במנגנוני הבקרה

    בעקבות הדיווחים, xAI השביתה זמנית את תכונת יצירת התמונות ב-Grok עבור רוב המשתמשים, וצוין כי הצוות מפעיל שכלולים במנגנוני הבקרה למניעת יצירת תכנים בלתי חוקיים. החלטה זו מגיעה ימים ספורים בלבד לאחר השקת התכונה, ששווקה ככזו שיוצרת דימויים "נועזים יותר" ממודלים מתחרים.

    ממצאים מדאיגים בהקשר חוקי וביטחוני

    על פי הדיווחים:

    • התמונות שנבדקו מסווגות בדרגת חומרה C (הנמוכה ביותר) בחוק הבריטי – אך משתמשים ניצלו כלי AI חיצוניים כדי לשדרג חומרים לדרגת חומרה A.
    • דווחו גם מקרים שבהם ביקשו גולשים מ-Grok ליצור דימויים מיניים של דמויות פופולריות (כמו אלזה מסרטי דיסני) ללא הסכמה.
    • בעבר נחקרה xAI על ידי רגולטור התקשורת הבריטי (Ofcom) בעקבות חשדות ליצירת תכנים מיניים.

    אתגרי הפיקוח על בינות מלאכותיות

    מומחים מתריעים כי המקרה מדגיש את הסכנות בהטמעה מהירה של טכנולוגיות AI ללא בקרות מספקות, במיוחד כאשר מדובר ביצירת תכנים ויזואליים. נציגי IWF הביעו חשש כי כלים כמו Grok עלולים לשנות את כללי המשחק בתחום הופעת תכני התעללות בילדים, ולהביא ליצירתם בקנה מידה רחב יותר.