חולשות קריטיות והתפשטות סמויה: ההאקרים מגבירים מתקפות על מערכות AI

    17 בנוב׳ 2025, 7:47חדשות3 מקורות

    חשיפת פרצות RCE במערכי AI של מטא, NVIDIA ומיקרוסופט עקב העתקת קוד פגום; SentinelOne משיקה פלטפורמת אבטחת AI משולבת AWS; עליית איומי Shadow AI - שימוש לא מפוקח במודלים על ידי עובדים הגורם לדליפות נתונים וסיכונים משפטיים.

    פרצות מתפשטות במערכות AI של ענקיות הטכנולוגיה

    חוקרי סייבר מ-Oligo Security חשפו שרשרת פרצות קריטיות במערכות ה-AI inference של מטא, NVIDIA, מיקרוסופט ופרויקטים קוד פתוח כמו vLLM ו-SGLang. הפרצות המסוכנות (Remote Code Execution - RCE), מתאפשרות עקב שימוש לא בטוח ב-ZeroMQ (ZMQ) בשילוב עם פונקציית pickle.deserialize() של Python, המאפשרות להפעיל קוד זדוני מרחוק ללא אימות.

    מנגנון 'זיהום קוד' מדאיג

    לפי דיווח החברה, הבעיה נגרמה מ-העתקה-הדבקה של קוד פגום בין פרויקטים שונים. קובץ קוד ממערך Llama של מטא הכיל פונקציה פגומה שקיבלה נתונים באמצעות recv-pyobj() והעבירה אותם ישירות ל-pickle.loads() - שנודעה כפרצת אבטחה במערכות מבוססות Python.

    "בדקנו קוד שורות-שורות וגילינו שהקבצים הועתקו בין מאגרים, לעתים עם הערה כמו 'מותאם מ-vLLM'. הסכנה היא שהפגמים הפכו ל**'תבנית זיהום מערכתית באקוסיסטם AI"**, מסביר אבי לומלסקי, חוקר אבטחה ב-Oligo.

    תיקונים וסיכון מוחשי

    הפגמים הקיבלו סימון כ-CVE-2024-50050 (מטא), CVE-2025-30165 (vLLM), CVE-2025-23254 (NVIDIA TensorRT-LLM) ו-CVE-2025-60455 (Modular Max Server). החברות שחררו עדכוני אבטחה:

    • מטא Llama Stack גרסה 0.0.41 ומעלה
    • NVIDIA TensorRT-LLM 0.18.2
    • vLLM גרסה 0.8.0
    • Modular Max Server גרסה 25.6

    מדוע זה קריטי? מערכי Inference אלו מפעילים עומסי עבודה של מודלים עסקיים, מעבדים נתונים רגישים וכישלון בהגנה עליהם עשוי להוביל ל:

    1. דליפת משקלים של מודלים יקרי ערך
    2. גניבת נתוני לקוחות
    3. ניצול משאבי GPU לכריית קריפטו
    4. הסלמה בהרשאות בארגונים

    לפי Oligo, ספקי ענן מובילים כולל AMD, Oracle Cloud, xAI ו-Google Cloud משתמשים במערכי SGLang הפגיעים - מה שמדגיש את היקף הסיכון.


    SentinelOne מגדילה הימור על אבטחת AI בענן

    במקביל לסכנות, חברת הסייבר SentinelOne הציגה בכנס OneCon 2025 חבילת כלים חדשה לאבטחת תשתיות AI:

    • אינטגרציה מתקדמת עם Amazon Web Services (AWS)
    • שיתוף פעולה עם גוגל לאיסוף מודיעין איומים
    • פלטפורמת נתונים מקורית מבוססת AI (פיתוחה של Observo AI שנרכשה)

    השקעה בעתיד אבטחה אוטונומית

    המערכת Singularity Hyperautomation מאפשרת כיום לבצע אוטומציית Workflows אבטחתיים ב-AWS ללא קוד, מה שצפוי לחזק את הנוכחות של החברה באקוסיסטם הענן. תחזית ההכנסות של החברה עומדת על 1.6 מיליארד דולר עד 2028 עם צמיחה שנתית של 22%, אך אנליסטים מזהירים מתלות מוגזמת בשותפים כמו AWS לחלוקת מוצרים.


    Shadow AI: ה'האקינג השקט' שמדאיג את העולם העסקי

    בעוד תעשיית הסייבר מפתחת הגנות, צומח איום סמוי: "Shadow AI" - שימוש לא מפוקח בכלי AI על ידי עובדים ללא אישור המחלקות הטכנולוגיות. תופעה זו, המזכירה את ימי Shadow IT, מאיצה סיכונים חדשים:

    סכנות בלתי נראות

    1. דליפת מידע רגיש - הזנת נתוני לקוחות/מותג ל-ChatGPT ציבורי (כמו פרצת DeepSeek)
    2. פרשנויות משפטיות - שימוש ביצירות מוגנות לאימון מודלים פנימיים
    3. הטיות מסוכנות - פרומטים לא מנוטרים היוצרים החלטות עסקיות שגויות
    4. פגיעות סייבר קשות - סוכן AI עם הרשאות מוגזמות עלול לשמש כשער אחורי

    המאבק בנראות אפסית

    לפי TechRadar, ארגונים רבים חסרים כלים לנטר שימושי AI פנימיים. פתרונות אפשריים:

    • הטמעת DLP (Data Loss Prevention) ייעודי ל-LLM
    • הגבלת גישת עובדים לפי עקרון הרשאות מינימליות
    • אספקת כלי AI מאושרים חלופיים
    • הדרכות חובה על סכנות אימון מודלים

    "הבחירה אינה לאסור AI, אלא לנהלו. ארגונים שרואים את הפעילות הסמויה יוכלו להפוך סיכון ליתרון", מסכמים המומחים.


    נקודת מפנה באבולוציית האבטחה

    החודשים הקרובים יקבעו אם תעשיית הטכנולוגיה תצליח:

    1. לסגור פרצות תשתית ב-MLOps
    2. לשלב הגנות אוטונומיות כמו של SentinelOne
    3. לרסן את גל ה-Shadow AI לפני שיהפוך לאפידמיה

    לארגונים מומלץ לפעול בדחיפות: עדכנו תשתיות AI, הגבילו הרשאות, ואל תשאירו את הפיקוח לאלגוריתמים בלבד.

    למה זה חשוב

    מקבלי החלטות

    פרצות במערכות AI מובילות עלולות לגרום לדליפות נתונים וגניבת משאבים, לצד עליית Shadow AI, מחייבות אסטרטגיות אבטחה כמו כלי SentinelOne.

    משקיעים

    חשיפת פרצות באקוסיסטם AI רחב כולל ספקי ענן כמו xAI מגבירה סיכונים תפעוליים, אך יוצרת הזדמנויות להשקעה בחברות אבטחה כמו SentinelOne.

    טכנולוגים

    חולשות RCE קריטיות נחשפו במערכות inference של Meta, Nvidia, MS ו-vLLM עקב שימוש פגום ב-ZeroMQ ו-pickle, מה שדורש עדכונים דחופים בפיתוח MLOps ובטוחה.

    חובבים

    תופעת Shadow AI והפרצות בסיסיות כמו pickle מאירות סיכונים חדשים בעולם AI, כולל ניצול GPU לכרייה.

    מקורות

    ידיעות קשורות