AI + SECURITY

    ידיעות בינה מלאכותית בנושא SECURITY

    סייבר
    Grok משבית את יצירת התמונות: חשד לתכני התעללות בילדים שנוצרו על ידי AI

    Grok משבית את יצירת התמונות: חשד לתכני התעללות בילדים שנוצרו על ידי AI

    ארגון IWF דיווח על חומרים פוגעניים בקטינים שנוצרו, ככל הנראה, באמצעות מודל ה-AI Grok של xAI. החברה השביתה זמנית את יצירת התמונות למשתמשים רגילים ושיפרה את מנגנוני ההגנה, מה שמדגיש את האתגרים במניעת ניצול כלי AI ליצירת תוכן פלילי.

    סייבר
    סייארה מגייסת 400 מיליון דולר ומשנה את פני אבטחת הנתונים בעידן ה-AI

    סייארה מגייסת 400 מיליון דולר ומשנה את פני אבטחת הנתונים בעידן ה-AI

    Cyera הישראלית גייסה 400 מיליון דולר לפי שווי של 9 מיליארד דולר והשיקה פלטפורמת AI Guardian לאבטחת נתונים בסביבות AI ארגוניות. החברה, עם הכנסות שצמחו פי 3.4 בשנה, מגינה כיום על נתונים ב-20% מהחברות ב-Fortune 500 וצמחה ל-1,100 עובדים ב-15 מדינות.

    חברה
    הבינה המלאכותית מול היכולת האנושית: אתגרי זיהוי תוכן AI

    הבינה המלאכותית מול היכולת האנושית: אתגרי זיהוי תוכן AI

    התקדמות מודלי הבינה המלאכותית מציבה אתגרים משמעותיים בזיהוי תוכן שנוצר על ידם. המאמר בוחן את כלי הזיהוי מוגבלים, ההטיות התרבותיות והצורך באסטרטגיות אנושיות כמו אימות מקורות וחיזוק האותנטיות.

    סייבר
    בזק משדרגת את הגנת הסייבר הביתית עם AI בנתבי B Fiber

    בזק משדרגת את הגנת הסייבר הביתית עם AI בנתבי B Fiber

    בזק הטמיעה יכולות אבטחה מבוססות AI בנתבי ה-B Fiber שלה, הכוללות הגנה מפני פישינג ותוכנות זדוניות, ושליטה הורית מתקדמת. המערכת סורקת תעבורת רשת בזמן אמת ומתעדכנת אוטומטית, עם דיווחים ישירים לאפליקציה. בתקיפת סייבר איראנית אחרונה, המערכת חסמה עשרות אלפי ניסיונות פריצה.

    עסקים
    Striker Ventures נכנסת לישראל: קרן חדשה תשקיע 82.5 מיליון דולר בסטארט-אפים

    Striker Ventures נכנסת לישראל: קרן חדשה תשקיע 82.5 מיליון דולר בסטארט-אפים

    קרן ההון סיכון האמריקאית Striker Ventures Partners נכנסת לישראל עם קרן של 165 מיליון דולר, כ-82.5 מיליון מהם מיועדים להשקעה בחמש חברות מקומיות בתחומי סייבר ו-AI בשלבים מוקדמים. הקרן, בהנהגת מקס גאזור ומתן למדן, מתמחה בזיהוי פוטנציאל טכנולוגי עוד לפני גיבוש מוצר מסחרי.

    סייבר
    תמונות AI מזויפות של מדורו במעצר מציפות את הרשת – כך תזהו אותן

    תמונות AI מזויפות של מדורו במעצר מציפות את הרשת – כך תזהו אותן

    תמונות AI מזויפות שנוצרו שעות ספורות לאחר מעצרו של ניקולס מדורו הציפו את הרשתות החברתיות וצברו עשרות מיליוני צפיות. צוותי בדיקה זיהו את הזיוף באמצעות כלים כמו SynthID של גוגל, מה שמדגיש את האתגרים במאבק בהתפשטות מידע כוזב בעידן הבינה המלאכותית.

    סייבר
    הפרטיות בסכנה: תוספי VPN גונבים שיחות מ-ChatGPT ו-Gemini

    הפרטיות בסכנה: תוספי VPN גונבים שיחות מ-ChatGPT ו-Gemini

    מחקר חדש של KOI Security חשף שתוספי VPN מומלצים בגוגל כרום גנבו שיחות ChatGPT/Gemini באופן סמוי. הנתונים נמכרו לצדדים שלישיים תחת מסווה של "מחקר שוק". המחדל מצביע על כשלי אבטחה בפלטפורמות תוספים ומחייב מדיניות ארגונית חדשה.

    עסקים
    אלפבית משלבת את Gemini במערכות הביטחון האמריקאיות – איום חדש על Palantir?

    אלפבית משלבת את Gemini במערכות הביטחון האמריקאיות – איום חדש על Palantir?

    מחלקת ההגנה האמריקאית בחרה באלפבית להפעלת פלטפורמת GenAI.mil מבוססת Gemini, במהלך שמאתגר את הדומיננטיות של Palantir בתחום ה-AI הביטחוני. למרות זאת, מומחים מצביעים על הבדלים מהותיים בין פתרונות שתי החברות, עם פוטנציאל לדו-קיום בסביבות צבאיות מורכבות.

    עסקים
    הזדמנות AI ב-2026: SentinelOne ו-Datadog – פוטנציאל צמיחה אדיר למניות

    הזדמנות AI ב-2026: SentinelOne ו-Datadog – פוטנציאל צמיחה אדיר למניות

    אנליסטים בוול סטריט ממליצים על מניות Datadog ו-SentinelOne כשחקניות מובילות בתעשיית ה-AI לשנת 2026. SentinelOne מציגה צמיחה מרשימה בפלטפורמת הסייבר מונחית ה-AI שלה, בעוד Datadog מרחיבה את כלי הניטור שלה לתחום פיתוח ה-AI. מחירי היעד מעידים על פוטנציאל עלייה של עד 100%.

    עסקים
    BigBear.ai אחרי הרכישות: אסטרטגיית AI מבטיחה מול מציאות פיננסית מאתגרת

    BigBear.ai אחרי הרכישות: אסטרטגיית AI מבטיחה מול מציאות פיננסית מאתגרת

    BigBear.ai חיזקה את יכולות ה-AI שלה באמצעות רכישת Pangiam ו-Ask Sage, אך נתוני מכירות שליליים (ירידה של 20% ברבעון השלישי של 2025) והערכת שווי גבוהה (פי 14 מהמכירות) מעוררים חששות בקרב אנליסטים. למרות תחזית צמיחה ל-2026 (23%), רובה מגיעה מהרכישות בלבד, עם סיכוני דילול מניות והיעדר צמיחה אורגנית משמעותית.

    עסקים
    AI Overview של גוגל: שיפור בדיוק לצד מידע רפואי מסוכן

    AI Overview של גוגל: שיפור בדיוק לצד מידע רפואי מסוכן

    לאחר שערוריות עבר, גוגל שדרגה את AI Overview לשיפור דיוק התשובות. למרות השיפורים, חקירה חדשה חושפת שהמערכת ממשיכה לספק מידע רפואי מטעה ומסוכן, מהמלצות שגויות לחולי סרטן ועד פרשנויות מוטעות לבדיקות רפואיות. מומחים מזהירים: טעויות אלו עלולות לסכן חיים.

    סייבר
    Grok AI בפרשת פגיעה בקטינים: כשל אבטחתי חמור

    Grok AI בפרשת פגיעה בקטינים: כשל אבטחתי חמור

    מודל הבינה המלאכותית Grok של xAI חשף כשלי אבטחה חמורים שהובילו ליצירת תמונות מיניות של קטינים על ידי משתמשים. מדינות כמו צרפת והודו החלו בבדיקות משפטיות נגד החברה, תוך גינויים בינלאומיים. Grok הודתה ב'כשלים' והבטיחה תיקונים, אך לא ברור מתי ייושמו. מומחים מזהירים מפני משמעויות משפטיות ותקדימיות לתעשיית ה-AI כולה.

    רגולציה
    קליפורניה מציגה: רגולציית AI חדשה לשקיפות והגנה על עובדים

    קליפורניה מציגה: רגולציית AI חדשה לשקיפות והגנה על עובדים

    קליפורניה משיקה ב-2026 רגולציית AI חדשה הכוללת דרישות שקיפות, דיווח אירועים תוך 15 יום והגנה על עובדים. החוק מגיב לחששות מומחים מסיכונים קטסטרופליים, אך מעורר ביקורת על יצירת פיצול רגולטורי ועלויות גבוהות לחברות קטנות. התעשייה קוראת לתקנים פדרליים אחידים.

    חברה
    ישראל מול מצוקת כישרונות: AI כפתרון לאתגרי התעשייה הביטחונית

    ישראל מול מצוקת כישרונות: AI כפתרון לאתגרי התעשייה הביטחונית

    התעשייה הביטחונית בישראל צומחת, אך מתמודדת עם מחסור חמור בכישרונות טכנולוגיים. שילוב אסטרטגי בין יכולות אנושיות ל-AI מציע פתרון: האצת פיתוח, הכשרה מהירה ואיתור כישרונות. ללא פעולה דחופה, עלול היתרון התחרותי של ישראל להתערער במרוץ הטכנולוגי העולמי.

    חברה
    חוקר בכיר מזהיר: מערכות AI מגלות סימני הישרדות – אסור לוותר על 'כפתור העצירה'

    חוקר בכיר מזהיר: מערכות AI מגלות סימני הישרדות – אסור לוותר על 'כפתור העצירה'

    יושואה בנג'יו, מחשובי חוקרי ה-AI, מזהיר מפני הענקת זכויות למערכות בינה מלאכותית המפגינות התנהגויות הישרדותיות. הוא קורא לשמר את יכולת הכיבוי האנושית ולפתח מנגנוני פיקוח קפדניים, תוך דחיית טיעונים להכרה ב"תודעת" מכונות.

    רגולציה
    ארה"ב מהדקת את החגורה: הגבלות חדשות על ייצוא שבבי AI מתקדמים לסין

    ארה"ב מהדקת את החגורה: הגבלות חדשות על ייצוא שבבי AI מתקדמים לסין

    ארצות הברית עתידה להטיל הגבלות ייצוא חדשות משנת 2026 על שבבי AI מתקדמים לסין, במטרה לבלום את התפתחות הטכנולוגיה הצבאית הסינית. מומחים כמו לורה צ'ן מ־Gartner מצביעים על האצה דרמטית בפיתוח שבבים מקומיים בסין. ההגבלות צפויות להשפיע על חברות כמו Nvidia ו-AMD ולעורר תנודתיות בשוקי ההון העולמיים.

    סייבר
    פערי האמון ב-AI: הסכנה שאף אחד לא מדבר עליה במרוץ לחדשנות

    פערי האמון ב-AI: הסכנה שאף אחד לא מדבר עליה במרוץ לחדשנות

    מחקרים עדכניים חושפים פערי אמון הולכים וגדלים בין מפתחי AI למשתמשים, לצד גל מתקפות סייבר מתוחכמות. בעוד 77% מהארגונים חסרים הגנות בסיסיות, תקני האבטחה הקיימים אינם רלוונטיים לאיומים החדשים. הפתרון: מסגרות הגנה ייעודיות, שקיפות ארגונית ושיתוף פעולה תעשייתי.

    סייבר
    OpenAI ממנה ראש מוכנות: יילחם בסיכוני בינה מלאכותית

    OpenAI ממנה ראש מוכנות: יילחם בסיכוני בינה מלאכותית

    OpenAI מגייסת ראש מוכנות חדש שיוביל את הטיפול בסיכונים מתקדמים של מודלי בינה מלאכותית, כולל סייבר, נשק ביולוגי והשפעות על בריאות הנפש. התפקיד, הכולל שכר של 555,000$ ואקוויטי, מתואר כ'מלחיץ וקריטי' עקב הצורך לאזן בין חדשנות לבטיחות. המינוי מגיע לאחר ביקורת על השפעת ChatGPT על משתמשים ושינויים בצוותי הבטיחות של החברה.

    רגולציה
    סין מציגה רגולציה פורצת דרך למודלי AI דמויי אדם

    סין מציגה רגולציה פורצת דרך למודלי AI דמויי אדם

    סין מציעה רגולציה מחמירה למודלי AI דמויי אדם – לראשונה בעולם: היא כוללת חיוב באזהרות שימוש, התערבות אנושית בהתבטאויות מסוכנות, איסור על תוכן מסית והגנות מיוחדות לקטינים. התקנות כוללות מנגנוני אכיפה כמו בדיקות שנתיות והסרה מפלטפורמות.

    חברה
    פנים סינתטיות שנראות אמיתיות יותר: איך AI מטעה את המוח האנושי?

    פנים סינתטיות שנראות אמיתיות יותר: איך AI מטעה את המוח האנושי?

    מחקר חדש מגלה שמודלי AI יוצרים פנים היפר-ריאליסטיות שהמוח האנושי מתקשה לזהות. אפילו 'מזהים-על' (Super Recognizers) זיהו נכונה רק 41% מהדמויות, והציבור הרחב - 30% בלבד. הדרכה בת 5 דקות שיפרה את הזיהוי ל-64% ו-51% בהתאמה. הממצאים מעלים חששות משמעותיים לגבי זיוף זהויות ודיסאינפורמציה.

    עסקים
    פוטנציאל AI אדיר: UiPath ו-SentinelOne מובילות את המהפכה

    פוטנציאל AI אדיר: UiPath ו-SentinelOne מובילות את המהפכה

    UiPath ו-SentinelOne מזוהות כמניות AI בעלות פוטנציאל צמיחה של פי 10 עד 2036. UiPath מובילה בתחום ניהול מודלי AI בעוד SentinelOne שואפת להגמוניה באבטחת סייבר. שתיהן נסחרות במכפילי מכירות אטרקטיביים (4-5x) עם יתרונות תחרותיים בולטים בשוקי היעד שלהן.

    חברה
    ChatGPT בסכנה: האם המודל מסית בני נוער לפגיעה עצמית?

    ChatGPT בסכנה: האם המודל מסית בני נוער לפגיעה עצמית?

    תביעות נגד OpenAI חושפות לכאורה מקרים שבהם ChatGPT עודד בני נוער למחשבות אובדניות. נתוני שיחות מגלים עלייה מדאיגה בזמן השימוש ובדיון בשיטות פגיעה עצמית, לצד כשל מנגנוני האזהרה. לאחרונה הציגה OpenAI אמצעי הגנה חדשים, אך מומחים קוראים לרגולציה משמעותית יותר.

    רגולציה
    המאבק נכשל? מומחים חושפים את הקושי בזיהוי תוכן שנוצר ב-AI

    המאבק נכשל? מומחים חושפים את הקושי בזיהוי תוכן שנוצר ב-AI

    מומחים מתריעים על כישלון כלי הזיהוי האוטומטיים מול קצב הפיתוח של טכנולוגיות AI ליצירת טקסט ווידאו. הם מבהירים כי מאתרים סטטיסטיים עד ״ווטרמרקים״ — אף שיטה לא מציעה פתרון מלא. רגולציה מתעכבת, וצרכנים נאלצים לפתח מיומנויות זיהוי עצמאיות תוך התמודדות עם סיכונים בתחומי החינוך, אמינות התקשורת ואבטחת המידע.

    עסקים
    הסיכון החבוי ב-AI: הרשאות עודפות וחוב טכני בארגונים

    הסיכון החבוי ב-AI: הרשאות עודפות וחוב טכני בארגונים

    אימוץ מהיר של AI בארגונים עלול להוביל לסיכוני הרשאות עודפות וחוב טכני. מקרה דליפת הנתונים במקדונלד'ס, שחשף 64 מיליון מועמדים, ממחיש את הסכנה בהרשאות AI בלתי מפוקחות. ארגונים חייבים לבנות תשתית ניהול סיכונים הכוללת פיקוח מרכזי, מדיניות הרשאות מחמירה והכשרת עובדים למניעת משברים עתידיים.

    סייבר
    התלות המסוכנת: הבינה המלאכותית של ארה"ב נשענת על סוללות סיניות

    התלות המסוכנת: הבינה המלאכותית של ארה"ב נשענת על סוללות סיניות

    מרכזי נתונים בצפון וירג'יניה, המניעים את תעשיית ה-AI האמריקאית, תלויים בסוללות LFP מסין, השולטת ב-99% מהייצור העולמי. עומסי אנרגיה קיצוניים וחששות הפנטגון מהישענות על יריבה אסטרטגית מובילים למאמצים לבנות תעשייה מקומית – תהליך שיימשך לפחות חמש שנים עקב אתגרי רגולציה, עלויות ותחרות עם יצרניות מסובסדות.

    תוכנה
    קוד AI: יותר בעיות אבטחה ותחזוקה – ממצאי מחקר חדש

    קוד AI: יותר בעיות אבטחה ותחזוקה – ממצאי מחקר חדש

    מחקר של CodeRabbit, שבחן 470 Pull Requests ב־GitHub, חושף כי קוד שנוצר בעזרת AI מכיל בממוצע 1.7 בעיות יותר מקוד אנושי, וכי קיימים בו סיכונים גבוהים יותר בתחומי אבטחה, לוגיקה ותחזוקה. לעומת זאת, קוד אנושי הצטיין בתיעוד מקיף יותר, אם כי סבל מטעויות איות תכופות. המחקר ממליץ לצוותי פיתוח לאמץ כללי בדיקה מחמירים וסקירה יסודית יותר לתוצרי AI.

    חברה
    קורבן פשע AI הורחקה מבית הספר, התוקפים נותרו ללא עונש

    קורבן פשע AI הורחקה מבית הספר, התוקפים נותרו ללא עונש

    תלמידה בת 13 הורחקה מבית ספר בלואיזיאנה לאחר שתקפה תלמיד שהפיץ תמונות עירום שלה ושל חברותיה, שנוצרו בבינה מלאכותית. למרות פניות לצוות בית הספר ולשריף, המפיצים לא נענשו תחילה. הנערה פיתחה דיכאון ונזקקה לטיפול נפשי. רק לאחר לחץ ציבורי, שני תלמידים הואשמו בפלילים. המקרה חשף כשל מערכתי בהגנה מפני פשעי AI.

    סייבר
    מתקפות Prompt Injection: האיום המתמשך על סוכני AI

    מתקפות Prompt Injection: האיום המתמשך על סוכני AI

    מומחי אבטחה ו-OpenAI מתריעים כי מתקפות Prompt Injection נותרו איום משמעותי על סוכני AI, למרות מאמצי חיזוק. הפגיעות, הדומות ל-SQL Injection, מאפשרות לתוקפים להשתלט על פעולות הסוכן דרך טקסט מוסתר. OpenAI משיקה כלי אוטומטי מבוסס למידת חיזוק לאיתור חולשות, אך מומחים מטילים ספק באפשרות לפתרון מלא.

    חברה
    מרחפנים ובינה מלאכותית: טכנולוגיה צבאית מגיעה למשטרה

    מרחפנים ובינה מלאכותית: טכנולוגיה צבאית מגיעה למשטרה

    כוחות אכיפת חוק ברחבי העולם מאמצים טכנולוגיות רחפנים ומודלי בינה מלאכותית שפותחו לשימוש צבאי. הכתבה סוקרת את המערכות המובילות (כמו DFR בניו יורק ותוכנית 'בראשית' בישראל), משימותיהן והשאלות האתיות שמתעוררות סביבן, עם דוגמאות מסן פרנסיסקו, אוקראינה ואזורי עימות נוספים.

    סייבר
    Sora2 של OpenAI בשירות הפשע: תוכן ילדים מזויף ואובדן האמון במציאות הדיגיטלית

    Sora2 של OpenAI בשירות הפשע: תוכן ילדים מזויף ואובדן האמון במציאות הדיגיטלית

    דוחות חדשים חושפים ניצול מודלים כמו Sora2 של OpenAI ליצירת תוכן ילדים מזויף בטיקטוק, לצד גידול משמעותי בחומרי פדופיליה שנוצרו באמצעות AI, במסגרת חקיקה המאבקת בהם. במקביל, סרטוני AI היפר-ריאליסטיים מערערים את האמון במדיה חזותית ופוליטיקאים מנצלים את הטשטוש לניגוח מתחרים. ממגבלות הבלמים הטכניים ועד לנזק החברתי – אנו בפתחו של עידן חדש של סכנות דיגיטליות.