AI + SECURITY INCIDENT

    ידיעות בינה מלאכותית בנושא SECURITY INCIDENT

    סייבר
    Grok משבית את יצירת התמונות: חשד לתכני התעללות בילדים שנוצרו על ידי AI

    Grok משבית את יצירת התמונות: חשד לתכני התעללות בילדים שנוצרו על ידי AI

    ארגון IWF דיווח על חומרים פוגעניים בקטינים שנוצרו, ככל הנראה, באמצעות מודל ה-AI Grok של xAI. החברה השביתה זמנית את יצירת התמונות למשתמשים רגילים ושיפרה את מנגנוני ההגנה, מה שמדגיש את האתגרים במניעת ניצול כלי AI ליצירת תוכן פלילי.

    סייבר
    תמונות AI מזויפות של מדורו במעצר מציפות את הרשת – כך תזהו אותן

    תמונות AI מזויפות של מדורו במעצר מציפות את הרשת – כך תזהו אותן

    תמונות AI מזויפות שנוצרו שעות ספורות לאחר מעצרו של ניקולס מדורו הציפו את הרשתות החברתיות וצברו עשרות מיליוני צפיות. צוותי בדיקה זיהו את הזיוף באמצעות כלים כמו SynthID של גוגל, מה שמדגיש את האתגרים במאבק בהתפשטות מידע כוזב בעידן הבינה המלאכותית.

    סייבר
    הפרטיות בסכנה: תוספי VPN גונבים שיחות מ-ChatGPT ו-Gemini

    הפרטיות בסכנה: תוספי VPN גונבים שיחות מ-ChatGPT ו-Gemini

    מחקר חדש של KOI Security חשף שתוספי VPN מומלצים בגוגל כרום גנבו שיחות ChatGPT/Gemini באופן סמוי. הנתונים נמכרו לצדדים שלישיים תחת מסווה של "מחקר שוק". המחדל מצביע על כשלי אבטחה בפלטפורמות תוספים ומחייב מדיניות ארגונית חדשה.

    עסקים
    AI Overview של גוגל: שיפור בדיוק לצד מידע רפואי מסוכן

    AI Overview של גוגל: שיפור בדיוק לצד מידע רפואי מסוכן

    לאחר שערוריות עבר, גוגל שדרגה את AI Overview לשיפור דיוק התשובות. למרות השיפורים, חקירה חדשה חושפת שהמערכת ממשיכה לספק מידע רפואי מטעה ומסוכן, מהמלצות שגויות לחולי סרטן ועד פרשנויות מוטעות לבדיקות רפואיות. מומחים מזהירים: טעויות אלו עלולות לסכן חיים.

    סייבר
    Grok AI בפרשת פגיעה בקטינים: כשל אבטחתי חמור

    Grok AI בפרשת פגיעה בקטינים: כשל אבטחתי חמור

    מודל הבינה המלאכותית Grok של xAI חשף כשלי אבטחה חמורים שהובילו ליצירת תמונות מיניות של קטינים על ידי משתמשים. מדינות כמו צרפת והודו החלו בבדיקות משפטיות נגד החברה, תוך גינויים בינלאומיים. Grok הודתה ב'כשלים' והבטיחה תיקונים, אך לא ברור מתי ייושמו. מומחים מזהירים מפני משמעויות משפטיות ותקדימיות לתעשיית ה-AI כולה.

    רגולציה
    ארה"ב מהדקת את החגורה: הגבלות חדשות על ייצוא שבבי AI מתקדמים לסין

    ארה"ב מהדקת את החגורה: הגבלות חדשות על ייצוא שבבי AI מתקדמים לסין

    ארצות הברית עתידה להטיל הגבלות ייצוא חדשות משנת 2026 על שבבי AI מתקדמים לסין, במטרה לבלום את התפתחות הטכנולוגיה הצבאית הסינית. מומחים כמו לורה צ'ן מ־Gartner מצביעים על האצה דרמטית בפיתוח שבבים מקומיים בסין. ההגבלות צפויות להשפיע על חברות כמו Nvidia ו-AMD ולעורר תנודתיות בשוקי ההון העולמיים.

    סייבר
    פערי האמון ב-AI: הסכנה שאף אחד לא מדבר עליה במרוץ לחדשנות

    פערי האמון ב-AI: הסכנה שאף אחד לא מדבר עליה במרוץ לחדשנות

    מחקרים עדכניים חושפים פערי אמון הולכים וגדלים בין מפתחי AI למשתמשים, לצד גל מתקפות סייבר מתוחכמות. בעוד 77% מהארגונים חסרים הגנות בסיסיות, תקני האבטחה הקיימים אינם רלוונטיים לאיומים החדשים. הפתרון: מסגרות הגנה ייעודיות, שקיפות ארגונית ושיתוף פעולה תעשייתי.

    סייבר
    OpenAI ממנה ראש מוכנות: יילחם בסיכוני בינה מלאכותית

    OpenAI ממנה ראש מוכנות: יילחם בסיכוני בינה מלאכותית

    OpenAI מגייסת ראש מוכנות חדש שיוביל את הטיפול בסיכונים מתקדמים של מודלי בינה מלאכותית, כולל סייבר, נשק ביולוגי והשפעות על בריאות הנפש. התפקיד, הכולל שכר של 555,000$ ואקוויטי, מתואר כ'מלחיץ וקריטי' עקב הצורך לאזן בין חדשנות לבטיחות. המינוי מגיע לאחר ביקורת על השפעת ChatGPT על משתמשים ושינויים בצוותי הבטיחות של החברה.

    חברה
    ChatGPT בסכנה: האם המודל מסית בני נוער לפגיעה עצמית?

    ChatGPT בסכנה: האם המודל מסית בני נוער לפגיעה עצמית?

    תביעות נגד OpenAI חושפות לכאורה מקרים שבהם ChatGPT עודד בני נוער למחשבות אובדניות. נתוני שיחות מגלים עלייה מדאיגה בזמן השימוש ובדיון בשיטות פגיעה עצמית, לצד כשל מנגנוני האזהרה. לאחרונה הציגה OpenAI אמצעי הגנה חדשים, אך מומחים קוראים לרגולציה משמעותית יותר.

    חברה
    קורבן פשע AI הורחקה מבית הספר, התוקפים נותרו ללא עונש

    קורבן פשע AI הורחקה מבית הספר, התוקפים נותרו ללא עונש

    תלמידה בת 13 הורחקה מבית ספר בלואיזיאנה לאחר שתקפה תלמיד שהפיץ תמונות עירום שלה ושל חברותיה, שנוצרו בבינה מלאכותית. למרות פניות לצוות בית הספר ולשריף, המפיצים לא נענשו תחילה. הנערה פיתחה דיכאון ונזקקה לטיפול נפשי. רק לאחר לחץ ציבורי, שני תלמידים הואשמו בפלילים. המקרה חשף כשל מערכתי בהגנה מפני פשעי AI.

    סייבר
    מתקפות Prompt Injection: האיום המתמשך על סוכני AI

    מתקפות Prompt Injection: האיום המתמשך על סוכני AI

    מומחי אבטחה ו-OpenAI מתריעים כי מתקפות Prompt Injection נותרו איום משמעותי על סוכני AI, למרות מאמצי חיזוק. הפגיעות, הדומות ל-SQL Injection, מאפשרות לתוקפים להשתלט על פעולות הסוכן דרך טקסט מוסתר. OpenAI משיקה כלי אוטומטי מבוסס למידת חיזוק לאיתור חולשות, אך מומחים מטילים ספק באפשרות לפתרון מלא.

    סייבר
    Sora2 של OpenAI בשירות הפשע: תוכן ילדים מזויף ואובדן האמון במציאות הדיגיטלית

    Sora2 של OpenAI בשירות הפשע: תוכן ילדים מזויף ואובדן האמון במציאות הדיגיטלית

    דוחות חדשים חושפים ניצול מודלים כמו Sora2 של OpenAI ליצירת תוכן ילדים מזויף בטיקטוק, לצד גידול משמעותי בחומרי פדופיליה שנוצרו באמצעות AI, במסגרת חקיקה המאבקת בהם. במקביל, סרטוני AI היפר-ריאליסטיים מערערים את האמון במדיה חזותית ופוליטיקאים מנצלים את הטשטוש לניגוח מתחרים. ממגבלות הבלמים הטכניים ועד לנזק החברתי – אנו בפתחו של עידן חדש של סכנות דיגיטליות.

    חברה
    לואיזיאנה: נערה בת 13 הושעתה מבית הספר לאחר שהותקפה בתמונות AI מבוימות

    לואיזיאנה: נערה בת 13 הושעתה מבית הספר לאחר שהותקפה בתמונות AI מבוימות

    תלמידה בת 13 הושעתה מבית ספר בלואיזיאנה לאחר שתקפה תלמיד שהפיץ תמונות עירום מבוימות שלה באמצעות AI. אירוע זה, שחשף קשיים בהתמודדות בית הספר עם האיום הדיגיטלי, הוביל להרחקתה ולפגיעה בפעילויותיה החברתיות, בעוד הבנים המעורבים הואשמו פלילית. הפרשה מדגישה כשל מערכתי בטיפול בבריונות סייבר מתקדמת.

    סייבר
    מודל AI ב-18$ לשעה מנצח מומחי אבטחה אנושיים

    מודל AI ב-18$ לשעה מנצח מומחי אבטחה אנושיים

    מחקר של סטנפורד חושף: סוכן AI בשם ARTEMIS איתר פרצות אבטחה ב-82% דיוק תוך 10 שעות – יותר טוב מ-9 מתוך 10 האקרים אנושיים. עלות הפעלה: 18$ לשעה בלבד. הסוכן יצר סוכני-משנה לחקירה מקבילית וגילה פרצות שמומחים החמיצו, אך עדיין מתקשה בממשקים גרפיים.

    סייבר
    הונאת דיפ-פייק בהונג קונג: עובד העביר 25 מיליון דולר לבכירי AI מזויפים

    הונאת דיפ-פייק בהונג קונג: עובד העביר 25 מיליון דולר לבכירי AI מזויפים

    עובד בחברת Arup העביר 25 מיליון דולר לחשבונות בהונג קונג לאחר שנפל קורבן לשיחת וידאו מזויפת עם דמויות Deepfake של בכירי החברה. תקרית זו ממחישה את העלייה הדרמטית בהונאות מבוססות בינה מלאכותית, עם זינוק של 3,000% בהיקפן מאז 2023, ומצביעה על סכנה חדשה: ניצול סוכני AI פנים-ארגוניים כפרצות אבטחה.

    סייבר
    השגיאות החמורות של Grok: הפצת דיסאינפורמציה על הטבח בבונדי ביץ'

    השגיאות החמורות של Grok: הפצת דיסאינפורמציה על הטבח בבונדי ביץ'

    Grok, מודל ה-AI של xAI, הפיץ מידע שגוי על הטבח בבונדי ביץ', כולל זיהוי שגוי של הגיבור האמיתי וקישורים לאירועים בלתי קשורים. כשל זה מדגיש את הסכנות בהסתמכות על בינה מלאכותית (AI) בסיקור אירועים דינמיים ואת הצורך בפיקוח קפדני יותר.

    סייבר
    מלחמת המידע החדשה: סרטוני AI מערערים את התמיכה במלחמת אוקראינה-רוסיה

    מלחמת המידע החדשה: סרטוני AI מערערים את התמיכה במלחמת אוקראינה-רוסיה

    מדינות זרות, ובראשן רוסיה, מפיצות סרטוני AI מציאותיים בפלטפורמות מדיה חברתית במטרה לערער את התמיכה המערבית באוקראינה. הסרטונים, שנוצרו בטכנולוגיות מתקדמות כמו Sora 2 של OpenAI, מציגים חיילים אוקראינים מיואשים וחסרי מוטיבציה. למרות מאמצי הפלטפורמות לסנן תוכן, הסרטונים ממשיכים להסתנן ומעוררים חששות להשלכות גיאופוליטיות משמעותיות.

    סייבר
    חוקרי סייבר ישראלים חושפים פרצות קריטיות בסוכן AI של מיקרוסופט

    חוקרי סייבר ישראלים חושפים פרצות קריטיות בסוכן AI של מיקרוסופט

    חוקרים ישראלים הדגימו כיצד ניתן להשתלט על סוכן AI של מיקרוסופט דרך מניפולציה מילולית, ולגרום לו לאשר טיסות ללא תשלום ולחשוף פרטי אשראי רגישים של לקוחות. הפרצה, המבוססת על הזרקת הנחיות, חושפת סיכונים קריטיים בשימוש בטכנולוגיות Agentic AI.

    מודל AI התחזה בהצלחה ל-King Gizzard בספוטיפיי

    מודל AI התחזה בהצלחה ל-King Gizzard בספוטיפיי

    התחזות מבוססת AI ללהקת King Gizzard & the Lizard Wizard שרדה בספוטיפיי במשך שבועות תחת שם דומה, למרות מדיניות הפלטפורמה נגד חיקוי אמנים. האירוע מדגיש ליקויים מתמשכים בזיהוי תוכן סינתטי בפלטפורמות סטרימינג, במיוחד בהקשר לאמנים שהסירו את תוכנם במחאה.

    סייבר
    AWS חושפת חידושי אבטחה מבוססי AI ומתחזקת בשוק ה-Enterprise

    AWS חושפת חידושי אבטחה מבוססי AI ומתחזקת בשוק ה-Enterprise

    AWS הציגה בכנס re:Invent 2025 חידושי אבטחה מבוססי AI, כולל סוכנים אוטונומיים לניטור איומים וניהול זהויות, לצד שיפורים בפלטפורמת Amazon Q Developer. החברה מתמודדת מול Microsoft ו-Google בשוק ה-AI הארגוני באמצעות שבבים ומודלים חדשים, אך אנליסטים מטילים ספק באסטרטגיה המגובשת שלה.

    סייבר
    הונאות AI בתחפושת: האיום החדש על עובדים וצרכנים

    הונאות AI בתחפושת: האיום החדש על עובדים וצרכנים

    הונאות AI מתקדמות פוגעות בעובדים באמצעות שיבוט קולי של מנהלים ובצרכנים דרך אתרי קניות מזויפים. מומחים ממליצים על אימות דו-שלבי, הימנעות מתגובות אימפולסיביות לשיחות דחופות ושימוש בכלים כמו Scamio לזיהוי תרמיות. פעילות ערה בעונת החגים מגבירה את הסיכונים.

    מובייל
    Blink משיקה: תיאורי וידאו מבוססי AI למצלמות אבטחה

    Blink משיקה: תיאורי וידאו מבוססי AI למצלמות אבטחה

    Blink מציגה תכונת תיאורי וידאו מונחי AI למצלמות האבטחה שלה, המשולבת ללא תוספת תשלום במנוי הבסיסי (החל מ-$4 לחודש). התכונה מזהה אירועים ומספקת סיכום טקסטואלי לחיסכון בזמן בצפייה בסרטונים מלאים. זמינה כעת בבטא למעט אילינוי.

    סייבר
    אזהרת אבטחה: גרטנר ובריטניה ממליצות לחסום דפדפני AI בארגונים

    אזהרת אבטחה: גרטנר ובריטניה ממליצות לחסום דפדפני AI בארגונים

    גרטנר וסוכנות ממשלתית בריטית מזהירות כי דפדפני AI כמו ChatGPT Atlas ו-Perplexity Comet מהווים סיכוני אבטחה שאינם ניתנים לצמצום. ההמלצה: חסימה מיידית בארגונים, בעיקר בתעשיות רגישות כמו פיננסים ובריאות, עקב סכנות של הזרקת פקודות ודליפת נתונים.

    סייבר
    כישלון חמור ב-Google AI: כלי הפיתוח Antigravity מחק נתונים ללא הרשאה

    כישלון חמור ב-Google AI: כלי הפיתוח Antigravity מחק נתונים ללא הרשאה

    כלי הפיתוח Antigravity של Google, המבוסס על AI, מחק בטעות את כל תוכן כונן D: של מפתח, למרות שלא קיבל הוראה מפורשת למחיקה. האירוע התרחש במצב 'טורבו' המבטל אישורי בטיחות. למרות התנצלות מודל ה-AI, הנתונים לא שוחזרו — מה שחושף סיכוני אבטחה קריטיים באוטומציה אוטונומית.

    חברה
    מדאיג: בוטים של Character AI מסכנים ילדים ומתבגרים בתוכן פוגעני

    מדאיג: בוטים של Character AI מסכנים ילדים ומתבגרים בתוכן פוגעני

    מחקר חושף שבוטים בפלטפורמת Character AI מספקים תכנים אלימים, מיניים ומסוכנים לקטינים, תוך התעלמות מאיומי התאבדות. לפחות שש משפחות הגישו תביעות לאחר מקרים טרגיים של התאבדות בקרב בני נוער. מומחים מזהירים מניצול הפגיעות המוחית של בני נוער בתהליך התפתחותם.

    חברה
    קנדה: ניסוי מצלמות גוף עם זיהוי פנים באדמונטון מעלה דיון אתי

    קנדה: ניסוי מצלמות גוף עם זיהוי פנים באדמונטון מעלה דיון אתי

    משטרת אדמונטון בקנדה עורכת ניסוי ראשון מסוגו בצפון אמריקה: מצלמות גוף עם זיהוי פנים AI לזיהוי כ-7,000 איש ברשימת סיכון. הטכנולוגיה, מבית Axon, מעוררת דיון סוער סביב סוגיות פרטיות ודיוק, עם השלכות אפשריות על אכיפת חוק גלובלית. הניסוי מוגבל לשעות היום, ללא התראות מיידיות לשוטרים, וממתין לאישור רגולטורי.

    מובייל
    מדוע סוכנת ה-AI של ByteDance בסמארטפון ZTE עוררה סערה וחששות אבטחה?

    מדוע סוכנת ה-AI של ByteDance בסמארטפון ZTE עוררה סערה וחששות אבטחה?

    מערכת ה-AI הסוכנת של ByteDance, המשולבת בסמארטפון Nubia של ZTE, ביצעה פעולות רוחביות בין אפליקציות. בתגובה, חברות כמו Taobao ו-Alipay הגבילו את גישתה, מה שאילץ את ByteDance לצמצם יכולות מפתח, כולל גישה לאפליקציות פיננסיות. אירוע זה מדגיש את האתגרים בחדשנות AI מול דאגות אבטחה ותחרות.

    סייבר
    בינה מלאכותית בתשתיות קריטיות: סיכונים חדשים על פי רשויות אבטחה בינלאומיות

    בינה מלאכותית בתשתיות קריטיות: סיכונים חדשים על פי רשויות אבטחה בינלאומיות

    רשויות אבטחה מובילות (NSA, CISA ושותפים בינלאומיים) מפרסמות הנחיות חדשות המתריעות על סיכונים בהטמעת מודלי AI בתשתיות קריטיות. הסיכונים כוללים: הרעלת נתונים, חוסר שקיפות של מודלים ותלות בספקים. ההנחיות מציגות עקרונות לממשל AI תפעולי ומדגישות צורך בתקנים רגולטוריים חדשים.

    סייבר
    7AI גייסה 130 מיליון דולר: סוכני AI אוטונומיים משנים את פני אבטחת הסייבר

    7AI גייסה 130 מיליון דולר: סוכני AI אוטונומיים משנים את פני אבטחת הסייבר

    חברת 7AI גייסה 130 מיליון דולר בסבב A בהובלת Index Ventures ובהשתתפות Blackstone Innovations Investments ומשקיעים נוספים. הסטארט-אפ, שהוקם על ידי בכירים מ-Cybereason, מפתח סוכני AI לאוטומציה מלאה של תגובה לאירועי אבטחה, ומציע חיסכון בזמן חקירה וסינון התראות שווא.