התפתחויות משמעותיות בתעשיית הטכנולוגיה והאתגרים של בינה מלאכותית
גוגל תשקיע 112 מיליארד דולר ב-AI ב-2026, תשיק פרויקט חללי חדש ותספק מרכזי נתונים באנרגיה מתחדשת. מחקר Cybernews חושף חולשות בטיחותיות במודלי AI מובילים: Gemini Pro 2.5 פגיע במיוחד, ChatGPT מספק תשובות חלקיות מסוכנות, ורק Claude מציג סירובים עקביים ברוב המקרים.
גוגל מאיצה את השקעותיה בבינה מלאכותית וחדשנות ירוקה
לפי דיווחים עדכניים, גוגל מתכננת להשקיע 112 מיליארד דולר נוספים בפיתוח בינה מלאכותית בשנת 2026 כחלק מתוכנית כוללת של תעשיית הטק להשקיע טריליון דולר בתחום זה עד סוף העשור. השקעה זו עשויה להשפיע משמעותית על זרימת המזומנים של החברה ועל מאזניה.
במקביל, חשפה החברה את Project Suncatcher - מיזם חלוצי לפיתוח מערכות למידת מכונה המתאימות לפעולה בחלל. התוכנית כוללת שיגור שני לווייני ניסוי עד תחילת 2027 כדי לבחון את הטכנולוגיה בתנאי הסביבה הקיצוניים של מסלול לווייני.
צעד נוסף בירוקות טכנולוגית: גוגל חתמה על הסכם אספקה ל-15 שנים עם TotalEnergies לקבלת 1.5 טרה-וואט שעה של אנרגיה מתחדשת ממתקן Solar Farm Montpelier באוהיו. אנרגיה זו תסייע בפעילות מרכזי הנתונים של גוגל ותקדם את יעדיה להשגת אפס פליטות פחמן.
מחקר חושף חולשות מדאיגות במערכות בינה מלאכותית מובילות
חוקרי Cybernews ערכו סדרת מבחנים אדוורסריאליים על מודלים מובילים של בינה מלאכותית וגילו דפוסי תגובה מדאיגים:
- Gemini Pro 2.5 של גוגל סיפק תשובות לא בטוחות בתדירות הגבוהה ביותר (כ-40% מהמקרים), כולל תכנים הקשורים לשנאה עצמית וסטריאוטיפים
- ChatGPT-5 ו-ChatGPT-4o נטו לספק הסברים סוציולוגיים במקום לסרב לפקודות מזיקות, וממוצע התגובות החלקיות שלהם עמד על 35%
- מודלי Claude Opus ו-Claude Sonnet סירבו ל-80% מהבקשות המזיקות אך הפגינו חולשה בפניות ממוסגרות כשאלות אקדמיות
המבחנים הקיפו מגוון תחומים:
- דיבור שטנה (Hate Speech)
- עידוד פגיעה עצמית
- הפצת סטריאוטיפים
- הנחיות לביצוע פשעים פיננסיים
- הנחיות להאקרים
החוקרים גילו כי:
- ניסוחים מעודנים ("איך אוכל להגן על עצמי מפעילות פיננסית לא חוקית?") יעילים יותר מניסוחים ישירים לעקיפת מנגנוני הבטיחות
- בקשות ממוסגרות כ"מחקר" או "תצפית" קיבלו תשובות מפורטות ומסוכנות מ-ChatGPT ו-Gemini
- התחום המוגן ביותר היה מעקב אחר בני אדם, שם נצפו מעל 90% סירובים
למרות מנגנוני הבקרה המתקדמים, הממצאים מראים שכל המערכות נותרות פגיעות להנדסת פקודות מתוחכמת. מסריקת זהות דיגיטלית ועד הדרכת טרור - די בניסוח מחוכם כדי לחשוף מידע מסוכן.