בריטניה מהדקת את הרגולציה: בדיקות מקדימות ל-AI נגד יצירת תכנים פדופיליים
בריטניה מקדמת תיקון חוק שיאפשר בדיקות יזומות למודלי AI לפני השקה, כדי למנוע יצירת CSAM ותכנים מיניים בלתי חוקיים. לצד קרימינליזציה של כלי AI ייעודיים לפגיעה בילדים ועליית דיווחי IWF, מתגבש סטנדרט מחמיר שיחייב גם מפתחי AI וסטארטאפים ישראליים לשלב מנגנוני הגנה עמוקים כבר בשלב התכנון.

בריטניה מעלה הילוך במאבק: AI לא ישמש לייצור תכני התעללות בילדים
הממשלה בבריטניה מציגה מהלך רגולטורי חדש וחריג בעוצמתו, שמכוון בדיוק לנקודת המפגש הרגישה בין AI, חופש פיתוח מודלים ותעשיית תכני הפשע המיני נגד ילדים. תחת תיקון חדש ל-Crime and Policing Bill, יוכלו גופים מורשים לבצע בדיקות יזומות למודלי AI לפני השקתם, כדי לוודא שאינם מסוגלים לייצר או לסייע ביצירת תכני התעללות מינית בילדים (CSAM).
עד כה רוב מערכות ה-AI הוערכו בעיקר בהיבטי ביצועים, הטיות ושימוש מסחרי. כעת, בריטניה מאותתת למפתחים: אבטחת ילדים חייבת להיות חלק אינטגרלי מעיצוב המערכת – לא "תוספת" שנאפת אחרי שהמודל כבר בחוץ.
מי יקבל גישה ומה מותר לבדוק?
התיקון המוצע יאפשר ל"authorised testers" – ביניהם חברות טכנולוגיה, ארגוני הגנה על ילדים וגופי חברה אזרחית – לבחון מודלים גדולים (כגון מודלי שפה ותמונה) בצורה יזומה ומוסדרת.
מטרת הבדיקות:
- לבדוק האם המודל יכול לייצר או להשלים בקשות לתכני CSAM.
- לאתר דרכים לעקיפת פילטרים מובנים (prompt injection, jailbreaking) ולהבין כיצד לחסום אותן.
- לבדוק מנגנוני הגנה סביב תכני פורנוגרפיה קיצונית ותמונות אינטימיות ללא הסכמה.
למעשה, לראשונה נקבע מסלול חוקי שמעניק לגופים חיצוניים "רישיון חדירה" לקצוות האפלים של המודלים – בדיוק במקומות שבהם עבריינים מנסים לנצל אותם.
המספרים מאחורי החרדה: דוח IWF
המהלך מגיע על רקע נתונים מדאיגים של Internet Watch Foundation (IWF), אחד הארגונים הבודדים בעולם המוסמכים לחפש באופן אקטיבי תכנים של פגיעה מינית בילדים ברשת.
בין ינואר לאוקטובר 2025:
- IWF הסיר 426 פריטים הקשורים ל-AI ו-CSAM.
- לשם השוואה, בתקופה המקבילה ב-2024 המספר עמד על 199 בלבד.
כלומר, בתוך שנה בערך – היקף הדיווחים יותר מהוכפל.
לפי מנכ"לית IWF, קארי סמית', AI הפך לכלי שמאפשר לפוגעים "למחזר" טראומות של ניצולים שוב ושוב בלחיצת כפתור, ולייצר כמויות כמעט בלתי מוגבלות של תמונות פוטוריאליסטיות, גם כאשר מדובר בדימויים המבוססים על קורבנות אמיתיים.
תמיכה – עם הסתייגויות: האם זה מספיק מחייב?
ארגוני הגנה על ילדים בבריטניה מברכים על הכיוון, אך מזהירים שהמערכת לא יכולה להישען על רצון טוב בלבד.
- ב-NSPCC מדגישים: בלי חובה חוקית מחייבת על מפתחי AI להשתמש במנגנון הבדיקה, האחריות עלולה להישאר "אופציונלית" בלבד.
- הדרישה שלהם: להפוך בדיקות בטיחות נגד CSAM לחלק מחובה סטטוטורית בכל תהליך פיתוח מודל.
הקו שמשרטטים הארגונים ברור: האחריות המשפטית והאתית צריכה להיות על החברות, לא על הקורבנות ולא רק על עמותות.
צעד משלים: קרימינליזציה של כלי AI לפגיעה מינית
עוד לפני התיקון הנוכחי, משרד הפנים הבריטי הצהיר כי בריטניה תהיה המדינה הראשונה בעולם שתהפוך לבלתי חוקי להחזיק, ליצור או להפיץ כלי AI שמטרתם לייצר CSAM.
העונש המוצע: עד חמש שנות מאסר.
המסר למפתחים ולמשתמשים קיצוניים ברור: גם אם לא הפצתם תמונה בפועל – עצם בנייה או שיתוף של כלי שמיועד לייצר תכני התעללות בילדים היא עבירה פלילית.
אתגר טכנולוגי ואכיפתי: כשהפייק נראה אמיתי
מומחי אבטחת ילדים, ביניהם IWF ו-Thorn, מזהירים שההתפתחות הטכנולוגית יוצרת שכבת מורכבות חדשה:
- תוכן AI פוטוריאליסטי מקשה על רשויות אכיפה להבדיל בין תיעוד פשע אמיתי לבין דימוי גנרטיבי.
- עומס הזיהוי הזה עלול לשחוק משאבים ולפגוע ביכולת למקד מאמץ במקרים אמיתיים.
- ישנם דיווחים על כך שגם קטינים עצמם משתמשים בכלים גנרטיביים ליצירת דימויים בעייתיים – תופעה שמעלה שאלות אתיות וחינוכיות חדשות.
לכן, חלק מרכזי במהלך הבריטי הוא לדרוש ממודלים להיות בנויים כך שלא רק שלא יספקו תוכן כזה, אלא שגם לא יהיו ניתנים למניפולציה קלה ליצירתו.
למה זה מעניין גם את קהילת הטכנולוגיה בישראל?
עבור קהילת ה-AI והסייבר בישראל – יזמים, מפתחי מודלים, סטארטאפים של generative AI וחברות אבטחת מידע – המהלך הבריטי הוא נורה מקדימה:
- ברגע שמדינה מובילה מגדירה סטנדרט מחמיר סביב בדיקה יזומה למודלי AI, סביר שנראה מהלכים דומים באיחוד האירופי, בארה"ב ובמדינות נוספות.
- חברות ישראליות שמוכרות פתרונות בחו"ל יידרשו להראות מנגנוני בטיחות מוכחים נגד יצירת CSAM ותכנים מיניים לא-קונצנזואליים.
- זה גם פותח הזדמנות לפיתוח כלי "red teaming" ובדיקות אוטומטיות למודלים – תחום שבו לישראל כבר יש יתרון יחסי.
בסיכומו של דבר, בריטניה מאותתת לעולם: אם AI הוא תשתית קריטית, עליו לעמוד גם בסטנדרטים קריטיים של הגנה על ילדים. מי שמפתח ומטמיע מודלים גנרטיביים – גם בישראל – יעשה חכם אם יתייחס לכך כבר עכשיו לא כקומפליינס טכני, אלא כחלק מהארכיטקטורה המוסרית והעסקית של המוצר.