אבולוציה של NPU: ארכיטקטורת Edge AI היברידית משלבת NeuroEdge 130

    לפני כ־19 שעותניתוח1 מקורות

    NPU מסורתיים סובלים ממגבלות בעיבוד שכבות לא-מטריציות במודלי AI. ארכיטקטורה היברידית המשלבת מעבד NeuroEdge 130 מתגברת על צווארי הבקבוק דרך טיפול יעיל בשכבות עיבוד מקדים/מאוחר, ומאפשרת הרצת מודלי Transformer מתקדמים תוך חיסכון של עד 60% בצריכת האנרגיה והקטנת גודל השבב.

    אבולוציה של NPU: ארכיטקטורת Edge AI היברידית משלבת NeuroEdge 130

    מהפכת הבינה המלאכותית בשוליים: NPU מקבל שותף

    בעולם ה-Edge AI, מעבדי הבינה המלאכותית (NPU) מהווים תשתית קריטית - אך נתקלים במגבלות משמעותיות. NPU מדור ראשון מתוכננים לביצועי מטריצות מאסיביות (MAC) אך אינם מסוגלים לטפל בפעולות מורכבות כגון פונקציות אקטיבציה או עיבוד מקדים של נתונים. תרחיש זה יוצר בעיות ארכיטקטוניות:

    • צוואר בקבוק במעבד הראשי (CPU): העברת משימות למעבד כללי מאיטה את צינור העיבוד
    • עומסי נתונים: העברת טנסורים גדולים בין רכיבים צורכת זמן ואנרגיה
    • מורכבות פיתוח: הפצת מודל AI על פני מספר מעבדים מקשה על אופטימיזציה

    הפתרון: ארכיטקטורה היברידית NPU + AICP

    Cadence מציגים גישה חדשנית המשלבת את ה-NPU עם מעבד עזר ייעודי בשם NeuroEdge 130 AI Co-Processor (AICP). המערכת פועלת בשלבים:

    1. עיבוד מקדים: ה-AICP מבצע חלוקת נתונים (כגון חיתוך תמונות לטלאים ב-Vision Transformers)
    2. חישוב ליבה: ה-NPU מריץ את פעולות המטריצות האינטנסיביות
    3. עיבוד נוסף: ה-AICP מטפל בשכבות סופיות (SoftMax, Pooling)
    4. פלט: המעבד המשותף מפיק את התוצאה הסופית

    יתרונות בולטים לארכיטקטורה המשולבת

    • תמיכה במודלים מתקדמים כמו LLM, LVM ו-generative AI על מכשירי קצה
    • חיסכון באנרגיה של עד 60% בהשוואה לפתרונות מבוססי CPU
    • פישוט תהליך הפיתוח באמצעות SDK מאוחד
    • הקטנת גודל השבב בכ-30% לעומת פתרונות מסורתיים

    לסיכום, שילוב בין NPU למעבד ייעודי כמו NeuroEdge 130 מהווה קפיצת מדרגה ביעילות המערכות לקצה - ומאפשר הטמעת מודלי Transformer ו-Vision מתקדמים תוך צמצום עלויות פיתוח.

    מקורות