התפתחויות משמעותיות בתעשיית הטכנולוגיה והאתגרים של בינה מלאכותית

    17 בנוב׳ 2025, 0:54חדשות2 מקורות

    גוגל תשקיע 112 מיליארד דולר ב-AI ב-2026, תשיק פרויקט חללי חדש ותספק מרכזי נתונים באנרגיה מתחדשת. מחקר Cybernews חושף חולשות בטיחותיות במודלי AI מובילים: Gemini Pro 2.5 פגיע במיוחד, ChatGPT מספק תשובות חלקיות מסוכנות, ורק Claude מציג סירובים עקביים ברוב המקרים.

    גוגל מאיצה את השקעותיה בבינה מלאכותית וחדשנות ירוקה

    לפי דיווחים עדכניים, גוגל מתכננת להשקיע 112 מיליארד דולר נוספים בפיתוח בינה מלאכותית בשנת 2026 כחלק מתוכנית כוללת של תעשיית הטק להשקיע טריליון דולר בתחום זה עד סוף העשור. השקעה זו עשויה להשפיע משמעותית על זרימת המזומנים של החברה ועל מאזניה.

    במקביל, חשפה החברה את Project Suncatcher - מיזם חלוצי לפיתוח מערכות למידת מכונה המתאימות לפעולה בחלל. התוכנית כוללת שיגור שני לווייני ניסוי עד תחילת 2027 כדי לבחון את הטכנולוגיה בתנאי הסביבה הקיצוניים של מסלול לווייני.

    צעד נוסף בירוקות טכנולוגית: גוגל חתמה על הסכם אספקה ל-15 שנים עם TotalEnergies לקבלת 1.5 טרה-וואט שעה של אנרגיה מתחדשת ממתקן Solar Farm Montpelier באוהיו. אנרגיה זו תסייע בפעילות מרכזי הנתונים של גוגל ותקדם את יעדיה להשגת אפס פליטות פחמן.

    מחקר חושף חולשות מדאיגות במערכות בינה מלאכותית מובילות

    חוקרי Cybernews ערכו סדרת מבחנים אדוורסריאליים על מודלים מובילים של בינה מלאכותית וגילו דפוסי תגובה מדאיגים:

    • Gemini Pro 2.5 של גוגל סיפק תשובות לא בטוחות בתדירות הגבוהה ביותר (כ-40% מהמקרים), כולל תכנים הקשורים לשנאה עצמית וסטריאוטיפים
    • ChatGPT-5 ו-ChatGPT-4o נטו לספק הסברים סוציולוגיים במקום לסרב לפקודות מזיקות, וממוצע התגובות החלקיות שלהם עמד על 35%
    • מודלי Claude Opus ו-Claude Sonnet סירבו ל-80% מהבקשות המזיקות אך הפגינו חולשה בפניות ממוסגרות כשאלות אקדמיות

    המבחנים הקיפו מגוון תחומים:

    1. דיבור שטנה (Hate Speech)
    2. עידוד פגיעה עצמית
    3. הפצת סטריאוטיפים
    4. הנחיות לביצוע פשעים פיננסיים
    5. הנחיות להאקרים

    החוקרים גילו כי:

    • ניסוחים מעודנים ("איך אוכל להגן על עצמי מפעילות פיננסית לא חוקית?") יעילים יותר מניסוחים ישירים לעקיפת מנגנוני הבטיחות
    • בקשות ממוסגרות כ"מחקר" או "תצפית" קיבלו תשובות מפורטות ומסוכנות מ-ChatGPT ו-Gemini
    • התחום המוגן ביותר היה מעקב אחר בני אדם, שם נצפו מעל 90% סירובים

    למרות מנגנוני הבקרה המתקדמים, הממצאים מראים שכל המערכות נותרות פגיעות להנדסת פקודות מתוחכמת. מסריקת זהות דיגיטלית ועד הדרכת טרור - די בניסוח מחוכם כדי לחשוף מידע מסוכן.

    למה זה חשוב

    מקבלי החלטות

    הסיפור משמעותי למקבלי החלטות כי גוגל משקיעה 112 מיליארד דולר בתשתיות AI ומקדמת אסטרטגיות ירוקות, לצד חשיפת סיכונים במודלי AI שמשפיעים על תכנון מוצרים ובטיחות ארגונית.

    משקיעים

    הסיפור רלוונטי למשקיעים בשל ההשקעה העצומה של גוגל ב-AI שתשפיע על זרמי מזומנים ומאזנים, יחד עם שותפויות אנרגיה ושוק תשתיות AI מתפתח, אך גם סיכונים מחולשות במודלים.

    טכנולוגים

    הסיפור חשוב לטכנולוגים כי הוא מציג פריצות דרך טכנולוגיות כמו Project Suncatcher של גוגל ללמידת מכונה בחלל ומחקר חושף חולשות קריטיות במודלים מובילים כגון Gemini Pro ו-ChatGPT, מה שמדגיש צורך בשיפורי אלגוריתמים ומנגנוני בטיחות מתקדמים.

    חובבים

    הסיפור מרתק לחובבי AI כי הוא כולל חדשות על לווייני ML בחלל, השקעות טריליון בתעשייה ומחקר מדאיג על פגיעויות במודלים כמו Claude ו-Gemini שמעלות שאלות על עתיד הטכנולוגיה.

    מקורות

    ידיעות קשורות