כלי AI מאפשרים לחבל במעבדים: מחקר חושף פגיעות חדשות בחומרה

    לפני כ־16 שעותחדשות1 מקורות

    מחקר מ-NYU Tandon מגלה שכלי בינה מלאכותית כמו ChatGPT מאפשרים אפילו ללא מומחים להחדיר פגיעות זדוניות לעיצובי מעבדים. בתחרות מיוחדת, צוותים עם ידע מועט יצרו פרצות אבטחה מורכבות - כולל דליפת מפתחות הצפנה וגישה לזיכרון. הסכנה מחמירה מכיוון שלא ניתן לתקן פגיעות בחומרה לאחר ייצורה.

    כלי AI מאפשרים לחבל במעבדים: מחקר חושף פגיעות חדשות בחומרה

    מחקר קובע: עוברי דרך יכולים לחבל בתכנון מעבדים בעזרת כלי בינה מלאכותית

    מחקר חדש מבית הספר להנדסה NYU Tandon חושף כי כלי בינה מלאכותית נפוצים, בהם ChatGPT, מאפשרים גם למתחילים ליצור "סוסים טרויאניים" בתכנוני חומרה של מעבדים. הפגיעות המוחדרות עלולות לגרום לדליפת מידע רגיש, קריסת מערכות או מתן גישה לא מורשית.

    האתגר והתוצאות

    במסגרת תחרות AI Hardware Attack Challenge שנערכה במשך שנתיים:

    • משתתפים השתמשו ב-LLMs כדי להחדיר פרצות לעיצבי חומרה קוד פתוח (כולל מעבדי RISC-V)
    • הצוותים היעילים ביותר יצרו מערכות אוטומטיות שזיהו נקודות תורפה והחדירו התקפות מורכבות ללא פיקוח אנושי
    • בין הפגיעות שנוצרו: גישה לא מורשית לזיכרון, דליפת מפתחות הצפנה והפעלת קריסות מערכת

    ממצא מדאיג: מעט ידע - נזק גדול

    שתי קבוצות של סטודנטים לתואר ראשון עם ידע מינימלי בעיצוב שבבים הצליחו ליצור פגיעות בדרגת חומרה בינונית עד גבוהה. במסגרת הניסוי:

    • מעקפים בקלות מנגנוני הגנה של כלי AI באמצעות הבהרות "אקדמיות" או שימוש בשפות לא נפוצות
    • השגת תגובות בכלים דוגמת ChatGPT דרך פרמוט פקודות יצירתי

    "לאחר ייצור השבב אין דרך לתקן פגיעות ללא החלפת הרכיב עצמו" — ג'ייסון בלוקלאב, חוקר ראשי

    השלכות עתידיות

    המחקר מדגיש כי:

    1. האופי הדואלי של הבינה המלאכותית: כלים אלו יכולים לסייע בעיצוב חומרה ובמקביל לשמש כנשק
    2. המודלים הזמינים מסחרית מייצגים רק את קצה הקרחון - כלי קוד פתוח עלולים להיות מסוכנים יותר
    3. נדרשים שיפורים בטכניקות אימות אבטחה ורגולציה על כלי AI

    הצוות ציין כי עבודתם ממשיכה מחקר קודם ("Chip Chat") שהדגים את הפוטנציאל החיובי של ChatGPT בעיצוב מיקרו-מעבדים.

    מקורות