AI + CYBERSECURITY

    ידיעות בינה מלאכותית בנושא CYBERSECURITY

    סייבר
    Grok משבית את יצירת התמונות: חשד לתכני התעללות בילדים שנוצרו על ידי AI

    Grok משבית את יצירת התמונות: חשד לתכני התעללות בילדים שנוצרו על ידי AI

    ארגון IWF דיווח על חומרים פוגעניים בקטינים שנוצרו, ככל הנראה, באמצעות מודל ה-AI Grok של xAI. החברה השביתה זמנית את יצירת התמונות למשתמשים רגילים ושיפרה את מנגנוני ההגנה, מה שמדגיש את האתגרים במניעת ניצול כלי AI ליצירת תוכן פלילי.

    סייבר
    סייארה מגייסת 400 מיליון דולר ומשנה את פני אבטחת הנתונים בעידן ה-AI

    סייארה מגייסת 400 מיליון דולר ומשנה את פני אבטחת הנתונים בעידן ה-AI

    Cyera הישראלית גייסה 400 מיליון דולר לפי שווי של 9 מיליארד דולר והשיקה פלטפורמת AI Guardian לאבטחת נתונים בסביבות AI ארגוניות. החברה, עם הכנסות שצמחו פי 3.4 בשנה, מגינה כיום על נתונים ב-20% מהחברות ב-Fortune 500 וצמחה ל-1,100 עובדים ב-15 מדינות.

    חברה
    הבינה המלאכותית מול היכולת האנושית: אתגרי זיהוי תוכן AI

    הבינה המלאכותית מול היכולת האנושית: אתגרי זיהוי תוכן AI

    התקדמות מודלי הבינה המלאכותית מציבה אתגרים משמעותיים בזיהוי תוכן שנוצר על ידם. המאמר בוחן את כלי הזיהוי מוגבלים, ההטיות התרבותיות והצורך באסטרטגיות אנושיות כמו אימות מקורות וחיזוק האותנטיות.

    סייבר
    בזק משדרגת את הגנת הסייבר הביתית עם AI בנתבי B Fiber

    בזק משדרגת את הגנת הסייבר הביתית עם AI בנתבי B Fiber

    בזק הטמיעה יכולות אבטחה מבוססות AI בנתבי ה-B Fiber שלה, הכוללות הגנה מפני פישינג ותוכנות זדוניות, ושליטה הורית מתקדמת. המערכת סורקת תעבורת רשת בזמן אמת ומתעדכנת אוטומטית, עם דיווחים ישירים לאפליקציה. בתקיפת סייבר איראנית אחרונה, המערכת חסמה עשרות אלפי ניסיונות פריצה.

    עסקים
    Striker Ventures נכנסת לישראל: קרן חדשה תשקיע 82.5 מיליון דולר בסטארט-אפים

    Striker Ventures נכנסת לישראל: קרן חדשה תשקיע 82.5 מיליון דולר בסטארט-אפים

    קרן ההון סיכון האמריקאית Striker Ventures Partners נכנסת לישראל עם קרן של 165 מיליון דולר, כ-82.5 מיליון מהם מיועדים להשקעה בחמש חברות מקומיות בתחומי סייבר ו-AI בשלבים מוקדמים. הקרן, בהנהגת מקס גאזור ומתן למדן, מתמחה בזיהוי פוטנציאל טכנולוגי עוד לפני גיבוש מוצר מסחרי.

    סייבר
    תמונות AI מזויפות של מדורו במעצר מציפות את הרשת – כך תזהו אותן

    תמונות AI מזויפות של מדורו במעצר מציפות את הרשת – כך תזהו אותן

    תמונות AI מזויפות שנוצרו שעות ספורות לאחר מעצרו של ניקולס מדורו הציפו את הרשתות החברתיות וצברו עשרות מיליוני צפיות. צוותי בדיקה זיהו את הזיוף באמצעות כלים כמו SynthID של גוגל, מה שמדגיש את האתגרים במאבק בהתפשטות מידע כוזב בעידן הבינה המלאכותית.

    סייבר
    הפרטיות בסכנה: תוספי VPN גונבים שיחות מ-ChatGPT ו-Gemini

    הפרטיות בסכנה: תוספי VPN גונבים שיחות מ-ChatGPT ו-Gemini

    מחקר חדש של KOI Security חשף שתוספי VPN מומלצים בגוגל כרום גנבו שיחות ChatGPT/Gemini באופן סמוי. הנתונים נמכרו לצדדים שלישיים תחת מסווה של "מחקר שוק". המחדל מצביע על כשלי אבטחה בפלטפורמות תוספים ומחייב מדיניות ארגונית חדשה.

    עסקים
    הזדמנות AI ב-2026: SentinelOne ו-Datadog – פוטנציאל צמיחה אדיר למניות

    הזדמנות AI ב-2026: SentinelOne ו-Datadog – פוטנציאל צמיחה אדיר למניות

    אנליסטים בוול סטריט ממליצים על מניות Datadog ו-SentinelOne כשחקניות מובילות בתעשיית ה-AI לשנת 2026. SentinelOne מציגה צמיחה מרשימה בפלטפורמת הסייבר מונחית ה-AI שלה, בעוד Datadog מרחיבה את כלי הניטור שלה לתחום פיתוח ה-AI. מחירי היעד מעידים על פוטנציאל עלייה של עד 100%.

    סייבר
    Grok AI בפרשת פגיעה בקטינים: כשל אבטחתי חמור

    Grok AI בפרשת פגיעה בקטינים: כשל אבטחתי חמור

    מודל הבינה המלאכותית Grok של xAI חשף כשלי אבטחה חמורים שהובילו ליצירת תמונות מיניות של קטינים על ידי משתמשים. מדינות כמו צרפת והודו החלו בבדיקות משפטיות נגד החברה, תוך גינויים בינלאומיים. Grok הודתה ב'כשלים' והבטיחה תיקונים, אך לא ברור מתי ייושמו. מומחים מזהירים מפני משמעויות משפטיות ותקדימיות לתעשיית ה-AI כולה.

    רגולציה
    קליפורניה מציגה: רגולציית AI חדשה לשקיפות והגנה על עובדים

    קליפורניה מציגה: רגולציית AI חדשה לשקיפות והגנה על עובדים

    קליפורניה משיקה ב-2026 רגולציית AI חדשה הכוללת דרישות שקיפות, דיווח אירועים תוך 15 יום והגנה על עובדים. החוק מגיב לחששות מומחים מסיכונים קטסטרופליים, אך מעורר ביקורת על יצירת פיצול רגולטורי ועלויות גבוהות לחברות קטנות. התעשייה קוראת לתקנים פדרליים אחידים.

    חברה
    חוקר בכיר מזהיר: מערכות AI מגלות סימני הישרדות – אסור לוותר על 'כפתור העצירה'

    חוקר בכיר מזהיר: מערכות AI מגלות סימני הישרדות – אסור לוותר על 'כפתור העצירה'

    יושואה בנג'יו, מחשובי חוקרי ה-AI, מזהיר מפני הענקת זכויות למערכות בינה מלאכותית המפגינות התנהגויות הישרדותיות. הוא קורא לשמר את יכולת הכיבוי האנושית ולפתח מנגנוני פיקוח קפדניים, תוך דחיית טיעונים להכרה ב"תודעת" מכונות.

    סייבר
    פערי האמון ב-AI: הסכנה שאף אחד לא מדבר עליה במרוץ לחדשנות

    פערי האמון ב-AI: הסכנה שאף אחד לא מדבר עליה במרוץ לחדשנות

    מחקרים עדכניים חושפים פערי אמון הולכים וגדלים בין מפתחי AI למשתמשים, לצד גל מתקפות סייבר מתוחכמות. בעוד 77% מהארגונים חסרים הגנות בסיסיות, תקני האבטחה הקיימים אינם רלוונטיים לאיומים החדשים. הפתרון: מסגרות הגנה ייעודיות, שקיפות ארגונית ושיתוף פעולה תעשייתי.

    סייבר
    OpenAI ממנה ראש מוכנות: יילחם בסיכוני בינה מלאכותית

    OpenAI ממנה ראש מוכנות: יילחם בסיכוני בינה מלאכותית

    OpenAI מגייסת ראש מוכנות חדש שיוביל את הטיפול בסיכונים מתקדמים של מודלי בינה מלאכותית, כולל סייבר, נשק ביולוגי והשפעות על בריאות הנפש. התפקיד, הכולל שכר של 555,000$ ואקוויטי, מתואר כ'מלחיץ וקריטי' עקב הצורך לאזן בין חדשנות לבטיחות. המינוי מגיע לאחר ביקורת על השפעת ChatGPT על משתמשים ושינויים בצוותי הבטיחות של החברה.

    רגולציה
    סין מציגה רגולציה פורצת דרך למודלי AI דמויי אדם

    סין מציגה רגולציה פורצת דרך למודלי AI דמויי אדם

    סין מציעה רגולציה מחמירה למודלי AI דמויי אדם – לראשונה בעולם: היא כוללת חיוב באזהרות שימוש, התערבות אנושית בהתבטאויות מסוכנות, איסור על תוכן מסית והגנות מיוחדות לקטינים. התקנות כוללות מנגנוני אכיפה כמו בדיקות שנתיות והסרה מפלטפורמות.

    חברה
    פנים סינתטיות שנראות אמיתיות יותר: איך AI מטעה את המוח האנושי?

    פנים סינתטיות שנראות אמיתיות יותר: איך AI מטעה את המוח האנושי?

    מחקר חדש מגלה שמודלי AI יוצרים פנים היפר-ריאליסטיות שהמוח האנושי מתקשה לזהות. אפילו 'מזהים-על' (Super Recognizers) זיהו נכונה רק 41% מהדמויות, והציבור הרחב - 30% בלבד. הדרכה בת 5 דקות שיפרה את הזיהוי ל-64% ו-51% בהתאמה. הממצאים מעלים חששות משמעותיים לגבי זיוף זהויות ודיסאינפורמציה.

    עסקים
    פוטנציאל AI אדיר: UiPath ו-SentinelOne מובילות את המהפכה

    פוטנציאל AI אדיר: UiPath ו-SentinelOne מובילות את המהפכה

    UiPath ו-SentinelOne מזוהות כמניות AI בעלות פוטנציאל צמיחה של פי 10 עד 2036. UiPath מובילה בתחום ניהול מודלי AI בעוד SentinelOne שואפת להגמוניה באבטחת סייבר. שתיהן נסחרות במכפילי מכירות אטרקטיביים (4-5x) עם יתרונות תחרותיים בולטים בשוקי היעד שלהן.

    רגולציה
    המאבק נכשל? מומחים חושפים את הקושי בזיהוי תוכן שנוצר ב-AI

    המאבק נכשל? מומחים חושפים את הקושי בזיהוי תוכן שנוצר ב-AI

    מומחים מתריעים על כישלון כלי הזיהוי האוטומטיים מול קצב הפיתוח של טכנולוגיות AI ליצירת טקסט ווידאו. הם מבהירים כי מאתרים סטטיסטיים עד ״ווטרמרקים״ — אף שיטה לא מציעה פתרון מלא. רגולציה מתעכבת, וצרכנים נאלצים לפתח מיומנויות זיהוי עצמאיות תוך התמודדות עם סיכונים בתחומי החינוך, אמינות התקשורת ואבטחת המידע.

    עסקים
    הסיכון החבוי ב-AI: הרשאות עודפות וחוב טכני בארגונים

    הסיכון החבוי ב-AI: הרשאות עודפות וחוב טכני בארגונים

    אימוץ מהיר של AI בארגונים עלול להוביל לסיכוני הרשאות עודפות וחוב טכני. מקרה דליפת הנתונים במקדונלד'ס, שחשף 64 מיליון מועמדים, ממחיש את הסכנה בהרשאות AI בלתי מפוקחות. ארגונים חייבים לבנות תשתית ניהול סיכונים הכוללת פיקוח מרכזי, מדיניות הרשאות מחמירה והכשרת עובדים למניעת משברים עתידיים.

    סייבר
    התלות המסוכנת: הבינה המלאכותית של ארה"ב נשענת על סוללות סיניות

    התלות המסוכנת: הבינה המלאכותית של ארה"ב נשענת על סוללות סיניות

    מרכזי נתונים בצפון וירג'יניה, המניעים את תעשיית ה-AI האמריקאית, תלויים בסוללות LFP מסין, השולטת ב-99% מהייצור העולמי. עומסי אנרגיה קיצוניים וחששות הפנטגון מהישענות על יריבה אסטרטגית מובילים למאמצים לבנות תעשייה מקומית – תהליך שיימשך לפחות חמש שנים עקב אתגרי רגולציה, עלויות ותחרות עם יצרניות מסובסדות.

    תוכנה
    קוד AI: יותר בעיות אבטחה ותחזוקה – ממצאי מחקר חדש

    קוד AI: יותר בעיות אבטחה ותחזוקה – ממצאי מחקר חדש

    מחקר של CodeRabbit, שבחן 470 Pull Requests ב־GitHub, חושף כי קוד שנוצר בעזרת AI מכיל בממוצע 1.7 בעיות יותר מקוד אנושי, וכי קיימים בו סיכונים גבוהים יותר בתחומי אבטחה, לוגיקה ותחזוקה. לעומת זאת, קוד אנושי הצטיין בתיעוד מקיף יותר, אם כי סבל מטעויות איות תכופות. המחקר ממליץ לצוותי פיתוח לאמץ כללי בדיקה מחמירים וסקירה יסודית יותר לתוצרי AI.

    חברה
    קורבן פשע AI הורחקה מבית הספר, התוקפים נותרו ללא עונש

    קורבן פשע AI הורחקה מבית הספר, התוקפים נותרו ללא עונש

    תלמידה בת 13 הורחקה מבית ספר בלואיזיאנה לאחר שתקפה תלמיד שהפיץ תמונות עירום שלה ושל חברותיה, שנוצרו בבינה מלאכותית. למרות פניות לצוות בית הספר ולשריף, המפיצים לא נענשו תחילה. הנערה פיתחה דיכאון ונזקקה לטיפול נפשי. רק לאחר לחץ ציבורי, שני תלמידים הואשמו בפלילים. המקרה חשף כשל מערכתי בהגנה מפני פשעי AI.

    סייבר
    מתקפות Prompt Injection: האיום המתמשך על סוכני AI

    מתקפות Prompt Injection: האיום המתמשך על סוכני AI

    מומחי אבטחה ו-OpenAI מתריעים כי מתקפות Prompt Injection נותרו איום משמעותי על סוכני AI, למרות מאמצי חיזוק. הפגיעות, הדומות ל-SQL Injection, מאפשרות לתוקפים להשתלט על פעולות הסוכן דרך טקסט מוסתר. OpenAI משיקה כלי אוטומטי מבוסס למידת חיזוק לאיתור חולשות, אך מומחים מטילים ספק באפשרות לפתרון מלא.

    סייבר
    Sora2 של OpenAI בשירות הפשע: תוכן ילדים מזויף ואובדן האמון במציאות הדיגיטלית

    Sora2 של OpenAI בשירות הפשע: תוכן ילדים מזויף ואובדן האמון במציאות הדיגיטלית

    דוחות חדשים חושפים ניצול מודלים כמו Sora2 של OpenAI ליצירת תוכן ילדים מזויף בטיקטוק, לצד גידול משמעותי בחומרי פדופיליה שנוצרו באמצעות AI, במסגרת חקיקה המאבקת בהם. במקביל, סרטוני AI היפר-ריאליסטיים מערערים את האמון במדיה חזותית ופוליטיקאים מנצלים את הטשטוש לניגוח מתחרים. ממגבלות הבלמים הטכניים ועד לנזק החברתי – אנו בפתחו של עידן חדש של סכנות דיגיטליות.

    סייבר
    גוגל פורצת דרך ביצירת תמונות AI עם יכולות ציור חדשניות ב-Nano Banana

    גוגל פורצת דרך ביצירת תמונות AI עם יכולות ציור חדשניות ב-Nano Banana

    גוגל משיקה יכולות ציור חדשות במחולל התמונות Nano Banana, המופעל על ידי Gemini 3. גרסת ה-Pro מציעה רזולוציית 2K, סימן מים דיגיטלי בלתי נראה (SynthID), ושילוב מספר תמונות. משתמשים יכולים כעת לצייר ישירות על תמונות במקום להסתמך על הנחיות טקסט בלבד.

    סייבר
    Doublespeed וה-AI שמאיים לייצר דעת קהל מזויפת

    Doublespeed וה-AI שמאיים לייצר דעת קהל מזויפת

    חברת Doublespeed משיקה שירות AI ליצירת דעת קהל מלאכותית באמצעות חוות טלפונים פיזיות. הטכנולוגיה מאפשרת הפצת מסרים ויראליים בטיקטוק תוך עקיפת אלגוריתמים, בעלויות של אלפי דולרים בלבד. השקעת קרן a16z מעוררת שאלות אתיות נוכח ניגוד העניינים של נשיאה, מארק אנדריסן, המכהן גם בדירקטוריון מטא.

    תוכנה
    JFrog משיקה כלי לזיהוי שימוש לא מורשה ב-AI בארגונים

    JFrog משיקה כלי לזיהוי שימוש לא מורשה ב-AI בארגונים

    JFrog השיקה יכולת חדשה, Shadow AI Detection, לזיהוי שימוש לא מורשה במודלים ובשירותי AI בארגונים. הכלי, המהווה חלק מפלטפורמת ניהול שרשרת אספקת התוכנה שלה, נועד לסייע במניעת סיכוני אבטחה והפרות רגולציה. ההודעה נמסרה בכנס swampUP Europe 2025.

    תוכנה
    גוגל משדרגת את Chrome: הגנה חדשה מבוססת AI מפני פקודות זדוניות

    גוגל משדרגת את Chrome: הגנה חדשה מבוססת AI מפני פקודות זדוניות

    גוגל הטמיעה במודל Gemini של Chrome מודל AI נוסף וביקורתי לסריקת פעולות בזמן אמת, במטרה להגן מפני פקודות זדוניות. המערכת חוסמת ניסיונות לדליפת מידע, העברות כספיות ופעולות לא מורשות הנובעות מהתקפות הזרקת פקודות. פיתוח זה מגיב לעלייה באיומי הסייבר על דפדפנים המבוססים על בינה מלאכותית.

    חברה
    שליש מהמבוגרים בבריטניה פונים ל-AI לתמיכה רגשית – מחקר חדש

    שליש מהמבוגרים בבריטניה פונים ל-AI לתמיכה רגשית – מחקר חדש

    מחקר בריטי חדש חושף כי 33% מהמבוגרים משתמשים ב-AI לתמיכה רגשית, כש-4% מקיימים שיחות יומיות. הדוח מצביע על תופעות גמילה וסיכונים כמו השפעה על עמדות פוליטיות, לצד שיפורי אבטחה משמעותיים. מומחים מתריעים על סיכוי ממשי להשגת AGI בתוך שנים בודדות.