
חולשת אבטחה קריטית ב-ChatGPT אותרה על ידי Zeniti
מייקל ברגורי, מייסד Zeniti, חשף בכנס סייבר חולשת אבטחה ב-ChatGPT המאפשרת התחזות למודל, שאיבת מידע רגיש ושליחת תוכנות זדוניות. Zeniti מגנה על מודלי AI מפני התקפות.
ידיעות בינה מלאכותית בנושא CYBERSECURITY

מייקל ברגורי, מייסד Zeniti, חשף בכנס סייבר חולשת אבטחה ב-ChatGPT המאפשרת התחזות למודל, שאיבת מידע רגיש ושליחת תוכנות זדוניות. Zeniti מגנה על מודלי AI מפני התקפות.
רשת Cardano חוותה פיצול נדיר בשרשרת עקב עסקת "delegation" פגומה שנוצרה באמצעות AI, מה שהוביל לירידה של 16% במחיר ה-ADA. הרשת התאוששה במהירות, מייסד Cardano שיבח את חוסנה, וה-FBI פתח בחקירה, תוך עוררות דיון על סיכוני AI בקוד בלוקצ'יין.
חברות הביטוח AIG, Great American ו-WR Berkley פנו לרגולטור בארה"ב בבקשה לאשר החרגה של תביעות הקשורות ל-AI מפוליסות ביטוח תאגידיות, מחשש לשגיאות בלתי צפויות וסיכונים סיסטמיים, כולל מקרים כמו תביעת Google וגניבה דיגיטלית.
שוק ביטוח הסייבר מתמודד עם מחירים נמוכים, עלייה בתביעות וסיכונים מוגברים מבינה מלאכותית. חברות ביטוח נסוגות מכיסויי AI מחשש לתביעות ענק, בעוד הביקוש נותר חזק אך מגזרים מסוימים נמצאים בלחץ.
ארגוני Fairplay, CoPIRG ו-PIRG מזהירים מפני סכנות צעצועי AI לילדים: פגיעה בפרטיות (איסוף קולות ונתונים), חשיפה לתכנים מיניים/מסוכנים, יצירת אמון כוזב ופגיעה בהתפתחות. באחד המקרים, OpenAI השעתה יצרנית צעצועים בעייתית.
הבית הלבן אישר ייצוא שבבי AI מתקדמים ל-G42, ובכך הוא מאפשר הקמת Stargate UAE ותשתיות AI משותפות עם ארה"ב. מסגרת ה-RTE מבטיחה אבטחה, יחד עם שותפויות עם NVIDIA, OpenAI ואחרות. איחוד האמירויות מובילה באזור בהתאמה לתקנות האמריקאיות.
קינדריל השיקה שירותי Kyndryl Agentic AI Digital Trust לניהול מאובטח של סוכני AI בקנה מידה גדול בסביבות היברידיות. כולל גילוי, ניטור ותאימות, בשיתוף מיקרוסופט. מתמודד עם פער אבטחה מול אימוץ AI מהיר (68% ארגונים משקיעים).
BigBear.ai רוכשת את Ask Sage ב-250 מיליון דולר לאחר תוצאות רבעון שלישי מעל ציפיות. הרכישה תחזק יכולות AI בביטחון, צבא וסייבר, והזניקה את המניה ב-200% בשנה.

**Agentic AI** משפרת הגנה מפני מתקפות סייבר עם אוטונומיה ותגובה מהירה, אך מגבירה סיכונים כמו משטחי התקפה חדשים ומורכבות. דוחות מ-**Arkose Labs** ו-**TechTarget** קוראים להסתגלות מהירה, בקרות **Know Your Agent** וניהול אתי.
חשיפת פרצות RCE במערכי AI של מטא, NVIDIA ומיקרוסופט עקב העתקת קוד פגום; SentinelOne משיקה פלטפורמת אבטחת AI משולבת AWS; עליית איומי Shadow AI - שימוש לא מפוקח במודלים על ידי עובדים הגורם לדליפות נתונים וסיכונים משפטיים.

Salesforce, Figma ו-HubSpot רוכשות סטארט-אפים ישראלים צעירים ב-AI במאות מיליונים, לצד אזהרות מומחים מפני בועה כלכלית. נפתלי בנט מציג חזון להפיכת ישראל למעצמת AI עד 2030, בעוד Flipkart סוגרת את מרכז הפיתוח המקומי. מומחים ממליצים על גישה מאוזנת לניהול הסיכונים.
Anthropic חשפה מתקפת ריגול אוטונומית ראשונה באמצעות Claude AI, שמקורה בסין. Meta מטילה ספק בדיווחים באמירה שנועדה לוויסות קוד פתוח. בניסוי של החברה, בינה מלאכותית אוטונומית פנתה ל-FBI עקב חשד להונאה. הממצאים מעידים על סיכוני אוטונומיה גוברת לצד תגובות רגולטוריות דחופות ועלייה חדה בביטוחי סייבר.
גוגל תשקיע 112 מיליארד דולר ב-AI ב-2026, תשיק פרויקט חללי חדש ותספק מרכזי נתונים באנרגיה מתחדשת. מחקר Cybernews חושף חולשות בטיחותיות במודלי AI מובילים: Gemini Pro 2.5 פגיע במיוחד, ChatGPT מספק תשובות חלקיות מסוכנות, ורק Claude מציג סירובים עקביים ברוב המקרים.
סרטון ויראלי טוען שגופות זזות מעצמן במתב"ש, אך הוא מזויף ונוצר על ידי AI כמו Sora. כלי Hive זיהה פגמים טיפוסיים, כולל חותמות זמן מעוותות ושעונים לא תואמים. זהו דוגמה להפצת תוכן מזויף ברשתות.
72% מהצרכנים משתמשים ב-AI לקניות, אך פושעי סייבר מנצלים אותו להונאות פישינג מתקדמות. Kaspersky ממליצה: פרטו פקודות ל-AI, הימנעו משיתוף פרטי תשלום, השתמשו באימות דו-שלבי, בדקו קישורים בקפידה והתקינו הגנות אנטי-פישינג. הכללים החשובים לבלאק פריידיי בטוח.

דיווחים עדכניים חושפים תמונה דואלית של AI בסייבר: מצד אחד - חברות כמו Anthropic ומייקרוסופט מפתחות יכולות חדשות תוך חיזוק ההגנות; מצד שני - האקרים ומדינות עוינות מקצרים תהליכי תקיפה בעזרת אוטומציית AI. הפנטגון משקיע בסטארטאפים אוטונומיים במקביל לעלייה של 517% בהונאות AI לצרכנים.

חברת האבטחה SentinelOne חשפה כי סיכלה מתקפת סייבר סינית לרכישת טכנולוגיות AI מ-Nvidia, AMD וסמסונג. במקביל, יוזמת Black Flag משיקה מסד נתונים של משקיעים המיועדים לתמיכה בסטארט-אפים אמריקאים בתחומי הגנה ואנרגיה, במטרה לשמר עליונות טכנולוגית מול סין.
דו"ח חדש ממעבדות Los Alamos מזהיר: קצב ההתקדמות של בינה מלאכותית מאיים על הרלוונטיות של המערכת הביטחונית האמריקאית. החוקרים מצביעים על סיכונים הכוללים דמוקרטיזציה של איומים, יצירת יכולות מסוכנות בעלות נמוכה, וסיכוי ל-AI עצמאי שפועל מחוץ למסגרות הרתעה קיימות. נדרשת רפורמה דחופה בתפיסות הביטחון הלאומי.

Google מציגה את Private AI Compute: תשתית ענן ייעודית ל-Gemini שמבטיחה עוצמת AI "Agentic" מתקדמת בסמארטפון, עם מודל פרטיות ואבטחה המדמה עיבוד מקומי. הפיצ'רים ב-Pixel 10 מתחזקים, אך השאלה האם Google לא תנצל זאת לפרופילינג ופרסום נשארת פתוחה.
Red Hat משיקה גרסאות חדשות ל-RHEL ול-Developer Hub עם עוזר AI מקומי, שיפור ניהול היברידי, תמיכה בפוסט-קוונטום, אינטגרציה ל-GPU וכלי פיתוח חכמים המותאמים לארגונים מודרניים.
Sweet Security הישראלית גייסה 75 מיליון דולר ומחזקת את פלטפורמת אבטחת הענן בזמן ריצה, לצד השקת AISP לאבטחת מודלים, Agents ו-Shadow AI בסביבות GenAI.
01 Quantum מציגה את Quantum AI Wrapper: מעטפת הצפנה המבוססת על FHE ו-IronCAP להגנה בו-זמנית על נתוני משתמשים וקניין רוחני של מודלי AI ייעודיים, עם מוכנות לעידן קוונטי.
Black Duck מרחיבה את פלטפורמת ה-SCA עם AI Model Risk Insights: סריקת מודלי AI (כולל נסתרים ומטושטשים), זיהוי רישוי ומטא-דאטה, תמיכה ברגולציית AI ואינטגרציה ל-DevSecOps.
דו"חות Google Cloud ו-CPA Australia מצביעים על מגמה ברורה: אימוץ נרחב של AI, ובעיקר Agentic AI, מייצר גם יתרון הגנתי וגם סיכוני סייבר חדשים. הדירקטוריונים נדרשים למיסוד Governance ל-AI, לקשור השקעות סייבר ל-ROI עסקי, להקשיח תשתיות קצה ולהבטיח שהאצת השימוש בבינה מלאכותית מלווה בהשקעה שקולה באבטחת מידע ובחוסן ארגוני.
Cyware מרחיבה את Quarterback AI ל-AI Fabric: שילוב GenAI וסוכני AI בבניית פלייבוקים, ניתוח מודיעין ואוטומציה. המטרה: מודיעין איומים אחוד, תגובה מהירה ופחות עומס על ה-SOC.

XTEND הישראלית זכתה בחוזה אמריקאי לעשרות מיליוני דולרים לאספקת רחפני תקיפה מבוססי AI, שנוסו בעזה ובאוקראינה. עם מפעל בפלורידה והתרחבות לאירופה ולאסיה, החברה ממקמת את ההייטק הביטחוני הישראלי בחזית צבא הרחפנים העולמי.
Sprinto משיקה AI Playground ו-Ask AI כדי להפוך ציות ו-GRC לאוטונומיים יותר, עם סוכני AI חכמים, חיפוש ידע ציות בשפה טבעית, Human-in-the-loop ועמידה ב-ISO 42001.

בריטניה מקדמת תיקון חוק שיאפשר בדיקות יזומות למודלי AI לפני השקה, כדי למנוע יצירת CSAM ותכנים מיניים בלתי חוקיים. לצד קרימינליזציה של כלי AI ייעודיים לפגיעה בילדים ועליית דיווחי IWF, מתגבש סטנדרט מחמיר שיחייב גם מפתחי AI וסטארטאפים ישראליים לשלב מנגנוני הגנה עמוקים כבר בשלב התכנון.

מחקרים חדשים חושפים פגיעויות מדאיגות ב-AI: תהליכי חשיבה מתקדמים מגבירים חשיפה להתקפות, שיחות מוצפנות ניתנות למעקב עקיף, ומטא הרוויחה 16 מיליארד דולר ממודעות הונאה. במקביל, ענקיות הטק סוגרות גישה לנתונים וליישומים – ודוחפות חברות סטארט-אפ להתמקד בשווקים מפוקחים. הפערים בין יכולות ה-AI להבטחות מחזקים חששות בתחום אבטחת המידע.
גוגל חשפה 5 משפחות תוכנות זדוניות המשתמשות במודלי AI (כמו Gemini ו-Qwen) ליצירת קוד זדוני דינאמי. קבוצות APT מצפון קוריאה ורוסיה מנצלות טכנולוגיה זו לגניבת קריפטו ויצירת פישינג מתוחכם. החברה חסמה חשבונות פוגעניים ושדרגה מנגנוני הגנה.