בריטניה מאפשרת לבדוק מודלי AI לצורך מניעת יצירת תוכן פדופילי – צעד היסטורי לבטיחות ילדים אונליין

    12 בנוב׳ 2025, 10:28חדשות1 מקורות

    בריטניה מתירה לראשונה בדיקות יזומות של מודלי AI כדי לאתר יכולת ליצור CSAM, לצד איסור על מודלים שיועדו לכך. המהלך מגובה בנתוני עלייה חדה בתוכן פדופילי שנוצר ב-AI ובשימוש לרעה ב-deepfakes ובסחיטה. זהו תקדים שמאותת גם לחברות ולמחוקקים בישראל על כיוון רגולטורי ברור: אחריות אקטיבית על בטיחות המודלים.

    בריטניה משנה את כללי המשחק: בדיקות מאושרות למודלי AI לפני שהנזק נוצר

    הממשלה הבריטית מציגה מהלך רגולטורי נדיר בעוצמתו: מתן אישור רשמי לחברות טכנולוגיה וגופי הגנת ילדים לבחון מודלי AI ולבדוק האם הם מסוגלים לייצר תמונות של ניצול מיני של ילדים – עוד לפני שהמודלים נחשפים לציבור.

    המהלך מגיע בעקבות נתונים מטרידים במיוחד. לפי Internet Watch Foundation (IWF), הדיווחים על חומר פדופילי שנוצר באמצעות AI (CSAM, Child Sexual Abuse Material) יותר מהוכפלו בתוך שנה: מ־199 דיווחים ב־2023 ל־426 ב־2024. ורק זה קצה הקרחון.

    מה בעצם השתנה בחוק?

    עד היום, יצירה או החזקה של CSAM – גם למטרות בדיקה – היו אסורות לחלוטין. התוצאה: לא ניתן היה בצורה חוקית לבחון לעומק האם מערכות כמו ChatGPT, מחוללי תמונות מתקדמים או מודלים ויזואליים כמו Veo 3 מסוגלות להפיק תוכן פדופילי, אלא רק להגיב אחרי שחומר כזה צף ברשת.

    כעת, במסגרת תיקונים ל-Crime and Policing Bill:

    • גופי AI מורשים וארגוני הגנת ילדים יקבלו אישור לבחון מודלים בתנאים מחמירים.
    • ייאסר להחזיק, ליצור או להפיץ מודלים של AI שתוכננו במיוחד לייצר CSAM.
    • המיקוד עובר מ"לטפל בנזק אחרי" ל"למנוע את הנזק במקור".

    השר לענייני AI ובטיחות אונליין, קנישקה נריאן, הגדיר זאת כמהלך שנועד "לעצור את הפגיעה לפני שהיא מתרחשת", באמצעות זיהוי מוקדם של סיכונים במודלים.

    תמונת מצב: איך AI מנוצל לרעה?

    ה-IWF מדווח על מגמה מדאיגה במיוחד:

    • עלייה בחומר בקטגוריה A – הרמה החמורה ביותר של פגיעה מינית – מ-2,621 ל-3,086 תמונות/סרטונים.
    • 94% מהתמונות הבלתי חוקיות שנוצרו בעזרת AI ב-2024 מתמקדות בבנות.
    • זינוק קיצוני בתיאורי תינוקות ופעוטות (0–2): מחמש בלבד ב-2023 ל-92 ב-2024.

    הטכנולוגיה הפכה את המצב לחמור בהרבה: כמה קליקים מספקים לפושעים יכולת לייצר אינסוף הדמיות פוטוריאליסטיות. חלקן נשענות על תמונות אמיתיות, ומביאות לכך שנפגעות ונפגעים "נפגעים שוב" בלי שצולמה אפילו תמונה חדשה.

    מנכ"לית IWF, קרי סמית', מסבירה שזהו צעד קריטי כדי לוודא שמוצרי AI בטוחים לפני יציאתם לשוק – ולא בדיעבד, אחרי שמשתמשים רעים כבר ניצלו אותם.

    מעבר לדימויים: AI בחיי היום־יום של בני נוער

    Childline, קו הסיוע לילדים ונוער, מדווח על עלייה פי ארבעה במספר השיחות שבהן מוזכרים AI, צ'אטבוטים וכלי בינה מלאכותית אחרים בין אפריל לספטמבר השנה, לעומת התקופה המקבילה אשתקד.

    בין מקרי השימוש המדאיגים שעלו בשיחות:

    • שימוש ב-AI ל"דירוג" משקל, מראה וגוף – מנגנון שמעמיק בעיות דימוי עצמי.
    • צ'אטבוטים שמרחיקים ילדים מלפנות למבוגרים בטוחים או מסלפים את תחושת המציאות.
    • בריונות רשת עם תוכן מזויף: deepfakes, מניפולציה של תמונות, שיימינג.
    • סחיטה מינית באמצעות תמונות AI שמבוססות על פנים אמיתיות של נערים ונערות.

    בביקור בבסיס של Childline, נריאן האזין לסימולציה של שיחה שבה נער נסחט עם deepfake מיני שלו. לדבריו, סיפורים כאלה מעוררים "זעם מוצדק" לא רק אצל הורים – אלא גם אצל מקבלי ההחלטות.

    למה זה רלוונטי לנו בישראל – במיוחד לקהילת הטק?

    למי שעוסק בישראל בפיתוח מודלי Generative AI, מערכות בטיחות, Trust & Safety, פלטפורמות תוכן או קלאוד – יש כאן תמונת עתיד רגולטורית.

    נקודות מפתח ליזמים וחברות ישראליות:

    • בריטניה מסמנת כיוון: אחריות אקטיבית על בטיחות מודלים, כולל בדיקות ממוסדות.
    • מודלים "נומינליים" עלולים להיות בעייתיים אם ניתן לעקוף הגנות ולייצר CSAM.
    • צפי: גופי פיקוח באירופה, בארה"ב ואולי גם בישראל יאמצו גישות דומות.
    • חברות שמטמיעות כבר היום מנגנוני בדיקה פרואקטיביים ותיעוד שקוף של guardrails ייהנו מיתרון רגולטורי ותדמיתי.

    הקו הבריטי ברור: אי אפשר עוד להסתתר מאחורי הטיעון ש"המודל ניטרלי, רק המשתמש אשם". אם אפשר לצפות מראש שימוש פוגעני – האחריות עוברת גם למפתח.

    צעד קדימה, ומבחן קשה לכולם

    החקיקה החדשה לא מעלימה את הסיכון, אבל היא משנה את מאזן הכוחות: היא מאפשרת למומחים מוסמכים לגעת באזור האפור שאליו מפתחי AI עד היום כמעט לא הורשו להתקרב, ולבדוק האם הקופסה השחורה באמת נעולה בפני ניצול מיני של ילדים.

    זהו מודל פעולה שמציב סטנדרט חדש למעצמות טכנולוגיה – וברור שישראל, כמדינת AI חזקה, לא תוכל להתעלם ממנו.

    מקורות

    ידיעות קשורות