בינה מלאכותית בתשתיות קריטיות: סיכונים חדשים על פי רשויות אבטחה בינלאומיות

    6 בדצמ׳ 2025, 14:48חדשות3 מקורות

    רשויות אבטחה מובילות (NSA, CISA ושותפים בינלאומיים) מפרסמות הנחיות חדשות המתריעות על סיכונים בהטמעת מודלי AI בתשתיות קריטיות. הסיכונים כוללים: הרעלת נתונים, חוסר שקיפות של מודלים ותלות בספקים. ההנחיות מציגות עקרונות לממשל AI תפעולי ומדגישות צורך בתקנים רגולטוריים חדשים.

    בינה מלאכותית בתשתיות קריטיות: סיכונים חדשים על פי רשויות אבטחה בינלאומיות

    אזהרה גלובלית: סיכוני אבטחה במערכות תשתיות קריטיות עם הטמעת AI

    רשויות אבטחה, בראשות ה-NSA האמריקאי, CISA ושותפים בינלאומיים, פרסמו הנחיות חדשות המתריעות על סיכוני אבטחה קריטיים בהטמעת מודלי בינה מלאכותית בתשתיות תפעוליות (OT). המסמך מתייחס במיוחד למגזרי אנרגיה, מים, תחבורה, בריאות וייצור – תחומים שבהם עלולים כשלים במערכות AI לחולל שרשרת כשלים מסוכנת.

    סיכונים מרכזיים בהטמעת מודלי AI בתשתיות:

    • התקפות הרעלת נתונים (Data Poisoning) – הזרקת מידע מזויף לאימון המערכת.
    • נדידת מודלים (Model Drift) – שינויים בלתי צפויים בהתנהגות המערכת עקב שינויים בסביבה התפעולית.
    • הסבריות נמוכה (Low Explainability) – קושי בזיהוי מקור הכשל במערכות AI מורכבות.
    • עומס התראות שגויות הגורמות לתשישות אופרטורים – הידרדרות בכישורי ניהול מערכות עקב התראות שווא.
    • תלות יתר בניהול ענן ורכיבי צד שלישי – הגדלת שטח התקיפה הפוטנציאלי.

    עקרונות מנחים להטמעה בטוחה:

    1. הערכת כדאיות – בחינה מעמיקה האם השימוש ב-AI אכן נדרש, תוך התייחסות לסיכונים.
    2. שקיפות ספקים – דרישה מחברות טכנולוגיה לחשוף כל תכונת AI מוטמעת במוצריהן.
    3. מסגרות ממשל תפעוליות – הגדרת אחריות ברורה בין הנהלה, צוותי סייבר, מהנדסי OT ומומחי AI.
    4. ניהול נתונים קפדני – בקרות גישה מחמירות ומניעת שימוש חוזר בנתונים רגישים.
    5. יכולות תגובה פנימיות – פיתוח מומחיות פנים-ארגונית להתאוששות מהירה מתקלות.

    השלכות רגולטוריות עתידיות:

    הפרסום מתריע כי תוך שנים ספורות ישווקו עשרות מיליוני מכשירי OT עם יכולות AI מוטמעות. בעקבות זאת, צפויות תקנות חדשות שיהפכו תווי תקן ל-AI (בדומה לתקני בטיחות תפקודית) לסף כניסה חובה בשווקים גלובליים. הדוח מדגיש כי מערכות OT מאפשרות "טווח שגיאה" צר ביותר – מצב הדורש רמת אמינות גבוהה בהרבה ממערכות IT סטנדרטיות.

    "כאשר AI מתחיל לשלוט בתהליכים פיזיים במפעל או בתחנת כוח, השפעת כשל אבטחה יחיד יכולה לגרום לנזק פיזי ממשי – לא רק לאובדן נתונים" – נכתב בדוח.

    המסמך מזהיר במיוחד מפני איומי Advanced Persistent Threat groups (כגון קבוצות מקושרות לסין), שכבר מפתחות טכניקות תקיפה ייעודיות לניצול חולשות AI במערכות תשתית. כיוון שהתקפות אלו עלולות להימדד באלפיות השנייה, הדוח ממליץ על מעבר מאסטרטגיות הגנה סטטיות למודלים אדפטיביים המשולבים ישירות בתהליכי העבודה התפעוליים.