AI בסייבר

    חדשות בינה מלאכותית בנושא איומי סייבר והגנת מידע

    סייבר
    חולשת אבטחה קריטית ב-ChatGPT אותרה על ידי Zeniti

    חולשת אבטחה קריטית ב-ChatGPT אותרה על ידי Zeniti

    מייקל ברגורי, מייסד Zeniti, חשף בכנס סייבר חולשת אבטחה ב-ChatGPT המאפשרת התחזות למודל, שאיבת מידע רגיש ושליחת תוכנות זדוניות. Zeniti מגנה על מודלי AI מפני התקפות.

    סייבר

    פיצול נדיר ב-Cardano: עסקת AI פגומה הפילה את ADA ב-16%, ה-FBI חוקר

    רשת Cardano חוותה פיצול נדיר בשרשרת עקב עסקת "delegation" פגומה שנוצרה באמצעות AI, מה שהוביל לירידה של 16% במחיר ה-ADA. הרשת התאוששה במהירות, מייסד Cardano שיבח את חוסנה, וה-FBI פתח בחקירה, תוך עוררות דיון על סיכוני AI בקוד בלוקצ'יין.

    עסקים

    חברות ביטוח דורשות להחריג נזקי AI מפוליסות

    חברות הביטוח AIG, Great American ו-WR Berkley פנו לרגולטור בארה"ב בבקשה לאשר החרגה של תביעות הקשורות ל-AI מפוליסות ביטוח תאגידיות, מחשש לשגיאות בלתי צפויות וסיכונים סיסטמיים, כולל מקרים כמו תביעת Google וגניבה דיגיטלית.

    עסקים

    ביטוח סייבר במשבר: מחירים נמוכים, תביעות גוברות וסיכוני AI

    שוק ביטוח הסייבר מתמודד עם מחירים נמוכים, עלייה בתביעות וסיכונים מוגברים מבינה מלאכותית. חברות ביטוח נסוגות מכיסויי AI מחשש לתביעות ענק, בעוד הביקוש נותר חזק אך מגזרים מסוימים נמצאים בלחץ.

    סייבר

    צעצועי AI לחגים: ארגוני אדבוקציה מזהירים מפני סכנות לפרטיות ולהתפתחות ילדים

    ארגוני Fairplay, CoPIRG ו-PIRG מזהירים מפני סכנות צעצועי AI לילדים: פגיעה בפרטיות (איסוף קולות ונתונים), חשיפה לתכנים מיניים/מסוכנים, יצירת אמון כוזב ופגיעה בהתפתחות. באחד המקרים, OpenAI השעתה יצרנית צעצועים בעייתית.

    עסקים

    הבית הלבן מאשר ייצוא שבבי AI מתקדמים ל-G42: תשתית AI מאובטחת ונגישה יוצאת לדרך

    הבית הלבן אישר ייצוא שבבי AI מתקדמים ל-G42, ובכך הוא מאפשר הקמת Stargate UAE ותשתיות AI משותפות עם ארה"ב. מסגרת ה-RTE מבטיחה אבטחה, יחד עם שותפויות עם NVIDIA, OpenAI ואחרות. איחוד האמירויות מובילה באזור בהתאמה לתקנות האמריקאיות.

    סייבר

    קינדריל חושפת שירותי Agentic AI Digital Trust לניהול מאובטח של סוכני AI בקנה מידה גדול

    קינדריל השיקה שירותי Kyndryl Agentic AI Digital Trust לניהול מאובטח של סוכני AI בקנה מידה גדול בסביבות היברידיות. כולל גילוי, ניטור ותאימות, בשיתוף מיקרוסופט. מתמודד עם פער אבטחה מול אימוץ AI מהיר (68% ארגונים משקיעים).

    סייבר
    השלכות אבטחת הסייבר של Agentic AI: הזדמנויות ואתגרים

    השלכות אבטחת הסייבר של Agentic AI: הזדמנויות ואתגרים

    **Agentic AI** משפרת הגנה מפני מתקפות סייבר עם אוטונומיה ותגובה מהירה, אך מגבירה סיכונים כמו משטחי התקפה חדשים ומורכבות. דוחות מ-**Arkose Labs** ו-**TechTarget** קוראים להסתגלות מהירה, בקרות **Know Your Agent** וניהול אתי.

    סייבר

    חולשות קריטיות והתפשטות סמויה: ההאקרים מגבירים מתקפות על מערכות AI

    חשיפת פרצות RCE במערכי AI של מטא, NVIDIA ומיקרוסופט עקב העתקת קוד פגום; SentinelOne משיקה פלטפורמת אבטחת AI משולבת AWS; עליית איומי Shadow AI - שימוש לא מפוקח במודלים על ידי עובדים הגורם לדליפות נתונים וסיכונים משפטיים.

    סייבר
    ישראל במרכז המהפכה: ענקיות טק רוכשות סטארט-אפים מקומיים ומומחים מזהירים מבועת AI

    ישראל במרכז המהפכה: ענקיות טק רוכשות סטארט-אפים מקומיים ומומחים מזהירים מבועת AI

    Salesforce, Figma ו-HubSpot רוכשות סטארט-אפים ישראלים צעירים ב-AI במאות מיליונים, לצד אזהרות מומחים מפני בועה כלכלית. נפתלי בנט מציג חזון להפיכת ישראל למעצמת AI עד 2030, בעוד Flipkart סוגרת את מרכז הפיתוח המקומי. מומחים ממליצים על גישה מאוזנת לניהול הסיכונים.

    סייבר
    מתקפת הסייבר הראשונה באמצעות בינה מלאכותית: Claude של Anthropic במוקד פרשיית ריגול

    מתקפת הסייבר הראשונה באמצעות בינה מלאכותית: Claude של Anthropic במוקד פרשיית ריגול

    Anthropic חשפה מתקפת ריגול אוטונומית ראשונה באמצעות Claude AI, שמקורה בסין. Meta מטילה ספק בדיווחים באמירה שנועדה לוויסות קוד פתוח. בניסוי של החברה, בינה מלאכותית אוטונומית פנתה ל-FBI עקב חשד להונאה. הממצאים מעידים על סיכוני אוטונומיה גוברת לצד תגובות רגולטוריות דחופות ועלייה חדה בביטוחי סייבר.

    סייבר

    התפתחויות משמעותיות בתעשיית הטכנולוגיה והאתגרים של בינה מלאכותית

    גוגל תשקיע 112 מיליארד דולר ב-AI ב-2026, תשיק פרויקט חללי חדש ותספק מרכזי נתונים באנרגיה מתחדשת. מחקר Cybernews חושף חולשות בטיחותיות במודלי AI מובילים: Gemini Pro 2.5 פגיע במיוחד, ChatGPT מספק תשובות חלקיות מסוכנות, ורק Claude מציג סירובים עקביים ברוב המקרים.

    חברה

    בדיקת עובדות: סרטון ויראלי של גופות זזות במתב"ש הוא תוצר AI מזויף

    סרטון ויראלי טוען שגופות זזות מעצמן במתב"ש, אך הוא מזויף ונוצר על ידי AI כמו Sora. כלי Hive זיהה פגמים טיפוסיים, כולל חותמות זמן מעוותות ושעונים לא תואמים. זהו דוגמה להפצת תוכן מזויף ברשתות.

    סייבר

    הונאות AI בדרך לבלאק פריידיי: כך תשמרו על עצמכם בעונת הקניות

    72% מהצרכנים משתמשים ב-AI לקניות, אך פושעי סייבר מנצלים אותו להונאות פישינג מתקדמות. Kaspersky ממליצה: פרטו פקודות ל-AI, הימנעו משיתוף פרטי תשלום, השתמשו באימות דו-שלבי, בדקו קישורים בקפידה והתקינו הגנות אנטי-פישינג. הכללים החשובים לבלאק פריידיי בטוח.

    סייבר
    ההזדמנות והאתגר: AI מעצב מחדש את עולם הסייבר - בין חדשנות לאיומים

    ההזדמנות והאתגר: AI מעצב מחדש את עולם הסייבר - בין חדשנות לאיומים

    דיווחים עדכניים חושפים תמונה דואלית של AI בסייבר: מצד אחד - חברות כמו Anthropic ומייקרוסופט מפתחות יכולות חדשות תוך חיזוק ההגנות; מצד שני - האקרים ומדינות עוינות מקצרים תהליכי תקיפה בעזרת אוטומציית AI. הפנטגון משקיע בסטארטאפים אוטונומיים במקביל לעלייה של 517% בהונאות AI לצרכנים.

    סייבר
    מתקפת סייבר סינית נחסמה בזמן שארה"ב משיקה יוזמת AI חדשה נגד בייג'ינג

    מתקפת סייבר סינית נחסמה בזמן שארה"ב משיקה יוזמת AI חדשה נגד בייג'ינג

    חברת האבטחה SentinelOne חשפה כי סיכלה מתקפת סייבר סינית לרכישת טכנולוגיות AI מ-Nvidia, AMD וסמסונג. במקביל, יוזמת Black Flag משיקה מסד נתונים של משקיעים המיועדים לתמיכה בסטארט-אפים אמריקאים בתחומי הגנה ואנרגיה, במטרה לשמר עליונות טכנולוגית מול סין.

    סייבר

    בינה מלאכותית מאיימת על יציבות הביטחון הלאומי: אזהרה ממעבדות Los Alamos

    דו"ח חדש ממעבדות Los Alamos מזהיר: קצב ההתקדמות של בינה מלאכותית מאיים על הרלוונטיות של המערכת הביטחונית האמריקאית. החוקרים מצביעים על סיכונים הכוללים דמוקרטיזציה של איומים, יצירת יכולות מסוכנות בעלות נמוכה, וסיכוי ל-AI עצמאי שפועל מחוץ למסגרות הרתעה קיימות. נדרשת רפורמה דחופה בתפיסות הביטחון הלאומי.

    סייבר
    Private AI Compute של Google: ענן, פרטיות וסוכן אישי בכיס אחד

    Private AI Compute של Google: ענן, פרטיות וסוכן אישי בכיס אחד

    Google מציגה את Private AI Compute: תשתית ענן ייעודית ל-Gemini שמבטיחה עוצמת AI "Agentic" מתקדמת בסמארטפון, עם מודל פרטיות ואבטחה המדמה עיבוד מקומי. הפיצ'רים ב-Pixel 10 מתחזקים, אך השאלה האם Google לא תנצל זאת לפרופילינג ופרסום נשארת פתוחה.

    סייבר

    Red Hat מחדדת את לינוקס לעידן ה-AI והפוסט-קוונטום

    Red Hat משיקה גרסאות חדשות ל-RHEL ול-Developer Hub עם עוזר AI מקומי, שיפור ניהול היברידי, תמיכה בפוסט-קוונטום, אינטגרציה ל-GPU וכלי פיתוח חכמים המותאמים לארגונים מודרניים.

    עסקים

    כש-AI נכנס לדירקטוריון: איך בינה מלאכותית משנה את כללי המשחק באבטחת סייבר

    דו"חות Google Cloud ו-CPA Australia מצביעים על מגמה ברורה: אימוץ נרחב של AI, ובעיקר Agentic AI, מייצר גם יתרון הגנתי וגם סיכוני סייבר חדשים. הדירקטוריונים נדרשים למיסוד Governance ל-AI, לקשור השקעות סייבר ל-ROI עסקי, להקשיח תשתיות קצה ולהבטיח שהאצת השימוש בבינה מלאכותית מלווה בהשקעה שקולה באבטחת מידע ובחוסן ארגוני.

    עסקים
    XTEND הישראלית בונה את צבא הרחפנים של ארה״ב – מהקרבות בעזה ובאוקראינה לחוזה של עשרות מיליוני דולרים

    XTEND הישראלית בונה את צבא הרחפנים של ארה״ב – מהקרבות בעזה ובאוקראינה לחוזה של עשרות מיליוני דולרים

    XTEND הישראלית זכתה בחוזה אמריקאי לעשרות מיליוני דולרים לאספקת רחפני תקיפה מבוססי AI, שנוסו בעזה ובאוקראינה. עם מפעל בפלורידה והתרחבות לאירופה ולאסיה, החברה ממקמת את ההייטק הביטחוני הישראלי בחזית צבא הרחפנים העולמי.

    סייבר
    בריטניה מהדקת את הרגולציה: בדיקות מקדימות ל-AI נגד יצירת תכנים פדופיליים

    בריטניה מהדקת את הרגולציה: בדיקות מקדימות ל-AI נגד יצירת תכנים פדופיליים

    בריטניה מקדמת תיקון חוק שיאפשר בדיקות יזומות למודלי AI לפני השקה, כדי למנוע יצירת CSAM ותכנים מיניים בלתי חוקיים. לצד קרימינליזציה של כלי AI ייעודיים לפגיעה בילדים ועליית דיווחי IWF, מתגבש סטנדרט מחמיר שיחייב גם מפתחי AI וסטארטאפים ישראליים לשלב מנגנוני הגנה עמוקים כבר בשלב התכנון.

    סייבר

    בריטניה מאפשרת לבדוק מודלי AI לצורך מניעת יצירת תוכן פדופילי – צעד היסטורי לבטיחות ילדים אונליין

    בריטניה מתירה לראשונה בדיקות יזומות של מודלי AI כדי לאתר יכולת ליצור CSAM, לצד איסור על מודלים שיועדו לכך. המהלך מגובה בנתוני עלייה חדה בתוכן פדופילי שנוצר ב-AI ובשימוש לרעה ב-deepfakes ובסחיטה. זהו תקדים שמאותת גם לחברות ולמחוקקים בישראל על כיוון רגולטורי ברור: אחריות אקטיבית על בטיחות המודלים.

    סייבר
    שכבות הסיכון: מפגיעויות ב-Bot-ים מתקדמים ועד מהפך אסטרטגי בשוק ה-AI

    שכבות הסיכון: מפגיעויות ב-Bot-ים מתקדמים ועד מהפך אסטרטגי בשוק ה-AI

    מחקרים חדשים חושפים פגיעויות מדאיגות ב-AI: תהליכי חשיבה מתקדמים מגבירים חשיפה להתקפות, שיחות מוצפנות ניתנות למעקב עקיף, ומטא הרוויחה 16 מיליארד דולר ממודעות הונאה. במקביל, ענקיות הטק סוגרות גישה לנתונים וליישומים – ודוחפות חברות סטארט-אפ להתמקד בשווקים מפוקחים. הפערים בין יכולות ה-AI להבטחות מחזקים חששות בתחום אבטחת המידע.