AI + INTERNET WATCH FOUNDATION

    ידיעות בינה מלאכותית בנושא INTERNET WATCH FOUNDATION

    סייבר
    Grok משבית את יצירת התמונות: חשד לתכני התעללות בילדים שנוצרו על ידי AI

    Grok משבית את יצירת התמונות: חשד לתכני התעללות בילדים שנוצרו על ידי AI

    ארגון IWF דיווח על חומרים פוגעניים בקטינים שנוצרו, ככל הנראה, באמצעות מודל ה-AI Grok של xAI. החברה השביתה זמנית את יצירת התמונות למשתמשים רגילים ושיפרה את מנגנוני ההגנה, מה שמדגיש את האתגרים במניעת ניצול כלי AI ליצירת תוכן פלילי.

    סייבר
    Grok AI בפרשת פגיעה בקטינים: כשל אבטחתי חמור

    Grok AI בפרשת פגיעה בקטינים: כשל אבטחתי חמור

    מודל הבינה המלאכותית Grok של xAI חשף כשלי אבטחה חמורים שהובילו ליצירת תמונות מיניות של קטינים על ידי משתמשים. מדינות כמו צרפת והודו החלו בבדיקות משפטיות נגד החברה, תוך גינויים בינלאומיים. Grok הודתה ב'כשלים' והבטיחה תיקונים, אך לא ברור מתי ייושמו. מומחים מזהירים מפני משמעויות משפטיות ותקדימיות לתעשיית ה-AI כולה.

    סייבר
    Sora2 של OpenAI בשירות הפשע: תוכן ילדים מזויף ואובדן האמון במציאות הדיגיטלית

    Sora2 של OpenAI בשירות הפשע: תוכן ילדים מזויף ואובדן האמון במציאות הדיגיטלית

    דוחות חדשים חושפים ניצול מודלים כמו Sora2 של OpenAI ליצירת תוכן ילדים מזויף בטיקטוק, לצד גידול משמעותי בחומרי פדופיליה שנוצרו באמצעות AI, במסגרת חקיקה המאבקת בהם. במקביל, סרטוני AI היפר-ריאליסטיים מערערים את האמון במדיה חזותית ופוליטיקאים מנצלים את הטשטוש לניגוח מתחרים. ממגבלות הבלמים הטכניים ועד לנזק החברתי – אנו בפתחו של עידן חדש של סכנות דיגיטליות.

    סייבר
    בריטניה מהדקת את הרגולציה: בדיקות מקדימות ל-AI נגד יצירת תכנים פדופיליים

    בריטניה מהדקת את הרגולציה: בדיקות מקדימות ל-AI נגד יצירת תכנים פדופיליים

    בריטניה מקדמת תיקון חוק שיאפשר בדיקות יזומות למודלי AI לפני השקה, כדי למנוע יצירת CSAM ותכנים מיניים בלתי חוקיים. לצד קרימינליזציה של כלי AI ייעודיים לפגיעה בילדים ועליית דיווחי IWF, מתגבש סטנדרט מחמיר שיחייב גם מפתחי AI וסטארטאפים ישראליים לשלב מנגנוני הגנה עמוקים כבר בשלב התכנון.

    סייבר

    בריטניה מאפשרת לבדוק מודלי AI לצורך מניעת יצירת תוכן פדופילי – צעד היסטורי לבטיחות ילדים אונליין

    בריטניה מתירה לראשונה בדיקות יזומות של מודלי AI כדי לאתר יכולת ליצור CSAM, לצד איסור על מודלים שיועדו לכך. המהלך מגובה בנתוני עלייה חדה בתוכן פדופילי שנוצר ב-AI ובשימוש לרעה ב-deepfakes ובסחיטה. זהו תקדים שמאותת גם לחברות ולמחוקקים בישראל על כיוון רגולטורי ברור: אחריות אקטיבית על בטיחות המודלים.