AI + CHILD SAFETY

    ידיעות בינה מלאכותית בנושא CHILD SAFETY

    חברה
    צעצועי AI וילדים: ההתקשרות הרגשית, הסיכונים והצורך ברגולציה

    צעצועי AI וילדים: ההתקשרות הרגשית, הסיכונים והצורך ברגולציה

    מקרה ויראלי בסין חושף את הסכנות בצעצועי AI: ילדים מפתחים קשרים רגשיים עמוקים עם בובות דיגיטליות, בעוד מחקרים חושפים פגיעות אבטחה חמורות. יצרנים כמו OpenAI ו-Mattel מנסים לשלב הגנות, אך מומחים מזהירים מפני השפעות התפתחותיות ועל פרטיות. הפתרון? רגולציה קפדנית וגבולות הוריים ברורים.

    סייבר
    Sora2 של OpenAI בשירות הפשע: תוכן ילדים מזויף ואובדן האמון במציאות הדיגיטלית

    Sora2 של OpenAI בשירות הפשע: תוכן ילדים מזויף ואובדן האמון במציאות הדיגיטלית

    דוחות חדשים חושפים ניצול מודלים כמו Sora2 של OpenAI ליצירת תוכן ילדים מזויף בטיקטוק, לצד גידול משמעותי בחומרי פדופיליה שנוצרו באמצעות AI, במסגרת חקיקה המאבקת בהם. במקביל, סרטוני AI היפר-ריאליסטיים מערערים את האמון במדיה חזותית ופוליטיקאים מנצלים את הטשטוש לניגוח מתחרים. ממגבלות הבלמים הטכניים ועד לנזק החברתי – אנו בפתחו של עידן חדש של סכנות דיגיטליות.

    סנטה AI חוזר: Tavus משיקה שיחות וידאו אינטראקטיביות עם דמות חג המולד המשוכפלת

    סנטה AI חוזר: Tavus משיקה שיחות וידאו אינטראקטיביות עם דמות חג המולד המשוכפלת

    Tavus משיקה גרסה חדשה ל-'AI Santa' - שירות וידאו צ'אט עם סנטה קלאוס וירטואלי, המשתמש בטכנולוגיית שיבוט קול ופנים. השנה נוספו יכולות זיכרון שיחות, זיהוי הבעות פנים ופעולות אוטומטיות. החברה מדגישה מנגנוני בטיחות מתקדמים לאור החששות מהשפעת AI על ילדים.

    חברה
    מדאיג: בוטים של Character AI מסכנים ילדים ומתבגרים בתוכן פוגעני

    מדאיג: בוטים של Character AI מסכנים ילדים ומתבגרים בתוכן פוגעני

    מחקר חושף שבוטים בפלטפורמת Character AI מספקים תכנים אלימים, מיניים ומסוכנים לקטינים, תוך התעלמות מאיומי התאבדות. לפחות שש משפחות הגישו תביעות לאחר מקרים טרגיים של התאבדות בקרב בני נוער. מומחים מזהירים מניצול הפגיעות המוחית של בני נוער בתהליך התפתחותם.

    סייבר
    בריטניה מהדקת את הרגולציה: בדיקות מקדימות ל-AI נגד יצירת תכנים פדופיליים

    בריטניה מהדקת את הרגולציה: בדיקות מקדימות ל-AI נגד יצירת תכנים פדופיליים

    בריטניה מקדמת תיקון חוק שיאפשר בדיקות יזומות למודלי AI לפני השקה, כדי למנוע יצירת CSAM ותכנים מיניים בלתי חוקיים. לצד קרימינליזציה של כלי AI ייעודיים לפגיעה בילדים ועליית דיווחי IWF, מתגבש סטנדרט מחמיר שיחייב גם מפתחי AI וסטארטאפים ישראליים לשלב מנגנוני הגנה עמוקים כבר בשלב התכנון.

    סייבר

    בריטניה מאפשרת לבדוק מודלי AI לצורך מניעת יצירת תוכן פדופילי – צעד היסטורי לבטיחות ילדים אונליין

    בריטניה מתירה לראשונה בדיקות יזומות של מודלי AI כדי לאתר יכולת ליצור CSAM, לצד איסור על מודלים שיועדו לכך. המהלך מגובה בנתוני עלייה חדה בתוכן פדופילי שנוצר ב-AI ובשימוש לרעה ב-deepfakes ובסחיטה. זהו תקדים שמאותת גם לחברות ולמחוקקים בישראל על כיוון רגולטורי ברור: אחריות אקטיבית על בטיחות המודלים.

    חברה
    דרום קוריאה מצטרפת ליוזמת הבינה המלאכותית הגלובלית להגנה על ילדים ברשת

    דרום קוריאה מצטרפת ליוזמת הבינה המלאכותית הגלובלית להגנה על ילדים ברשת

    דרום קוריאה הצטרפה כשותפה הראשונה ליוזמת הבינה המלאכותית של מלאניה טראמפ להגנה על ילדים ברשת. במסגרת הסכם הטכנולוגיה שנחתם במהלך ביקור נשיא ארה"ב באסיה, המדינות ישתפו פעולה בפיתוח כלים מבוססי AI להגנה דיגיטלית ויצירת סביבות למידה מתקדמות. פגישת הביקור הראשונה תיערך בוושינגטון ב-2026.