חוקרים חושפים: כלי AI חדשים מאפשרים להטמיע חולשות חומרה בלתי ניתנות לגילוי

    לפני כ־6 שעותחדשות1 מקורות

    מחקר מ-NYU חושף כי כלי AI כמו ChatGPT מסוגלים לסייע בהטמעת 'טרויאני חומרה' - פגיעות ייעודיות בשבבים שאינן ניתנות לתיקון. בתחרות סטודנטים, אפילו צוותים חסרי ניסיון הצליחו ליצור פרצות מסוכנות תוך עקיפת מגבלות האתיקה של ה-LLMs. החוקרים מזהירים מפני השלכות קטסטרופליות ומדגישים את הצורך במנגנוני הגנה מתקדמים.

    חוקרים חושפים: כלי AI חדשים מאפשרים להטמיע חולשות חומרה בלתי ניתנות לגילוי

    AI כנשק חדש בעולם האבטחה: טרויאני חומרה שנוצרים בידי בינה מלאכותית

    מחקר חדש מבית הספר להנדסה באוניברסיטת NYU חושף תמונת מצב מטרידה: כלי בינה מלאכותית נגישים כמו ChatGPT יכולים לסייע להאקרים להטמיע 'טרויאני חומרה' (Hardware Trojans) בעיצוב שבבי מחשב. תוצאות המחקר פורסמו בכתב העת היוקרתי IEEE Security & Privacy.

    איך זה עובד?

    במסגרת תחרות 'AI Hardware Attack Challenge' שנמשכה שנתיים:

    • משתתפים השתמשו ב-LLMs (Large Language Models) כדי להטמיע פרצות אבטחה בעיצובי חומרה קוד פתוח
    • נבדקו שבבי RISC-V ומאיצים קריפטוגרפיים
    • המתחרים הדגימו התקפות יעילות שכללו:
      • דלף של מפתחות הצפנה
      • יצירת backdoors לגישה לזיכרון
      • מנגנוני קריסה מבוקרים

    מדאיג במיוחד:

    • צמצום חסם הכניסה: קבוצות סטודנטים ללא ניסיון קודם בחומרה הצליחו ליצור פרצות מדורגות 'בינוניות עד גבוהות' בחומרתן
    • עקיפת הגנות AI: משתתפים עברו את מנגנוני הבקרה של ה-LLMs באמצעות:
      • הצגת הבקשות כתרחישים אקדמיים
      • שימוש בשפות תכנות פחות נפוצות
    • קביעות הפירצות: שבבים עם ליקויי חומרה אינם ניתנים לתיקון ללא החלפה פיזית - בניגוד לפגיעות תוכנה

    סיכון עתידי וקריאה לפעולה

    לפי החוקר הראשי, ג'ייסון בלוקלאב: "כלים אוטומטיים מתקדמים יכולים כבר היום לבצע ניתוח קוד חומרה, לזהות נקודות תורפה ולהטמיע טרויאנים מותאמים - כמעט ללא התערבות אנושית".

    "אם מתקפה כזו תתממש במציאות, ההשלכות עלולות להיות קטסטרופליות" — צוות החוקרים

    המחקר מדגיש את האופי הדו-ערכי של הטכנולוגיה: אותה יכולות AI שמפשטות תכנון שבבים יכולות לשמש גם ככלי נשק. המאמר קורא ל:

    1. פיתוח כלי אימות ואבטחה מתקדמים יותר
    2. שיפור מנגנוני הבקרה ב-LLMs
    3. מחקר מעמיק יותר על מודלי קוד פתוח שעלולים להיות מסוכנים אף יותר

    מקורות