חוקרים חושפים: כלי AI חדשים מאפשרים להטמיע חולשות חומרה בלתי ניתנות לגילוי
מחקר מ-NYU חושף כי כלי AI כמו ChatGPT מסוגלים לסייע בהטמעת 'טרויאני חומרה' - פגיעות ייעודיות בשבבים שאינן ניתנות לתיקון. בתחרות סטודנטים, אפילו צוותים חסרי ניסיון הצליחו ליצור פרצות מסוכנות תוך עקיפת מגבלות האתיקה של ה-LLMs. החוקרים מזהירים מפני השלכות קטסטרופליות ומדגישים את הצורך במנגנוני הגנה מתקדמים.

AI כנשק חדש בעולם האבטחה: טרויאני חומרה שנוצרים בידי בינה מלאכותית
מחקר חדש מבית הספר להנדסה באוניברסיטת NYU חושף תמונת מצב מטרידה: כלי בינה מלאכותית נגישים כמו ChatGPT יכולים לסייע להאקרים להטמיע 'טרויאני חומרה' (Hardware Trojans) בעיצוב שבבי מחשב. תוצאות המחקר פורסמו בכתב העת היוקרתי IEEE Security & Privacy.
איך זה עובד?
במסגרת תחרות 'AI Hardware Attack Challenge' שנמשכה שנתיים:
- משתתפים השתמשו ב-LLMs (Large Language Models) כדי להטמיע פרצות אבטחה בעיצובי חומרה קוד פתוח
- נבדקו שבבי RISC-V ומאיצים קריפטוגרפיים
- המתחרים הדגימו התקפות יעילות שכללו:
- דלף של מפתחות הצפנה
- יצירת backdoors לגישה לזיכרון
- מנגנוני קריסה מבוקרים
מדאיג במיוחד:
- צמצום חסם הכניסה: קבוצות סטודנטים ללא ניסיון קודם בחומרה הצליחו ליצור פרצות מדורגות 'בינוניות עד גבוהות' בחומרתן
- עקיפת הגנות AI: משתתפים עברו את מנגנוני הבקרה של ה-LLMs באמצעות:
- הצגת הבקשות כתרחישים אקדמיים
- שימוש בשפות תכנות פחות נפוצות
- קביעות הפירצות: שבבים עם ליקויי חומרה אינם ניתנים לתיקון ללא החלפה פיזית - בניגוד לפגיעות תוכנה
סיכון עתידי וקריאה לפעולה
לפי החוקר הראשי, ג'ייסון בלוקלאב: "כלים אוטומטיים מתקדמים יכולים כבר היום לבצע ניתוח קוד חומרה, לזהות נקודות תורפה ולהטמיע טרויאנים מותאמים - כמעט ללא התערבות אנושית".
"אם מתקפה כזו תתממש במציאות, ההשלכות עלולות להיות קטסטרופליות" — צוות החוקרים
המחקר מדגיש את האופי הדו-ערכי של הטכנולוגיה: אותה יכולות AI שמפשטות תכנון שבבים יכולות לשמש גם ככלי נשק. המאמר קורא ל:
- פיתוח כלי אימות ואבטחה מתקדמים יותר
- שיפור מנגנוני הבקרה ב-LLMs
- מחקר מעמיק יותר על מודלי קוד פתוח שעלולים להיות מסוכנים אף יותר