שרתי Nvidia החדשים מאיצים מודלי AI סיניים פי עשרה
Nvidia מציגה נתונים: שרת AI חדש עם 72 שבבים משפר את ביצועי מודלי MoE מסין, כמו Moonshot AI ו-DeepSeek, פי עשרה. המהלך מגיע על רקע מעבר מאימון להסקה ותחרות מ-AMD, ו-Nvidia מדגישה את יתרונה בקישורים מהירים.
Nvidia פרסמה נתונים חדשים המראים כי שרת ה-AI העדכני ביותר שלה משפר את ביצועי מודלי AI מתקדמים – כולל שניים פופולריים מסין – פי עשרה.
הנתונים מגיעים על רקע מעבר משמעותי בעולם ה-AI: מתהליכי אימון מודלים, שבהם Nvidia שולטת בשוק, לשלב ההסקה והשימוש במודלים על ידי מיליוני משתמשים. כאן, החברה נתקלת בתחרות עזה יותר מיריבות כמו Advanced Micro Devices (AMD) ו-Cerebras.
הבדיקה התמקדה במודלי Mixture-of-Experts (MoE), טכניקה המגבירה יעילות על ידי פיצול שאלות ל"מומחים" בתוך המודל. הפופולריות שלה זינקה השנה לאחר ש-DeepSeek הסינית הפתיעה עם מודל קוד פתוח בעל ביצועים גבוהים, שדרש פחות אימון על שבבי Nvidia בתחילת 2025.
מאז, גישת MoE אומצה על ידי יוצרת ChatGPT מ-OpenAI, Mistral הצרפתית ו-Moonshot AI הסינית, ששחררה ביולי מודל קוד פתוח מדורג גבוה.
Nvidia מדגישה כי למרות שמודלים אלה זקוקים לפחות אימון על שבביה, השרתים שלה מצטיינים בהפעלתם למשתמשים. השרת החדש כולל 72 שבבי דגל במחשב יחיד עם קישורים מהירים ביניהם, והוא משפר את ביצועי מודל Kimi K2 Thinking של Moonshot AI פי עשרה בהשוואה לדור הקודם – שיפור דומה לזה שנראה במודלי DeepSeek.
השיפורים נובעים בעיקר מכמות השבבים הגבוהה והקישורים המהירים, תחומים שבהם Nvidia שומרת על יתרון על פני יריבותיה.
בינתיים, מתחרתה AMD מפתחת שרת דומה עם שבבים רבי-עוצמה רבים, שיושק בשנה הבאה.
הנתונים מחזקים את מעמדה של Nvidia בשוק ההסקה, שצומח במהירות ומשפיע על כלכלת ה-AI הגלובלית.