חדשות בינה מלאכותית בנושא CYBERSECURITY

    חדשות בינה מלאכותית (AI) המתוייגות תחת CYBERSECURITY

    סייבר
    אתגרי הבינה המלאכותית: מפיטורי שווא להונאות חזותיות בזמן אסון

    אתגרי הבינה המלאכותית: מפיטורי שווא להונאות חזותיות בזמן אסון

    בנק CBA חזר בו מפיטורי עשרות עובדים לאחר שגילה שה-AI לא הפחית את עומס השיחות. במקביל, אזהרה מצפון קרולינה מפני תמונות מזויפות של הוריקן אירין שנוצרו בבינה מלאכותית, כולל טכניקות לזיהוי תוכן AI מטעה. מומחים מעריכים שאנו רק בתחילת הבנת ההשלכות החברתיות-כלכליות של הטכנולוגיה.

    סייבר
    פושעי סייבר משתמשים ב-AI כדי לבנות אתרים מזויפים שאי אפשר להבדיל מהאמיתיים

    פושעי סייבר משתמשים ב-AI כדי לבנות אתרים מזויפים שאי אפשר להבדיל מהאמיתיים

    כלים מבוססי AI מאפשרים לפושעי סייבר ליצור אתרים מזויפים זהים כמעט לחלוטין לגרסאות הרשמיות. מקרה מבחן של Joann Fabrics חשף את השיטה: אתרים מתחזים גונבים נתונים תוך התחזות לאתר החברה. מומחים מעריכים שכ-100,000 דומיינים מזויפים כבר נוצרו בשיטה זו, בדגש על פגיעה בעסקים קטנים. המלצות הגנה כוללות הקלדת כתובות ידנית ובדיקת סימנים מחשידים ב-URL.

    סייבר
    הסיכונים שמנהלי אבטחת מידע (CISOs) חייבים לדעת לפני אימוץ AI וטכנולוגיות ענן

    הסיכונים שמנהלי אבטחת מידע (CISOs) חייבים לדעת לפני אימוץ AI וטכנולוגיות ענן

    סקר Unisys חושף פערים מסוכנים באימוץ טכנולוגיות מתקדמות: 85% מהארגונים עם הגנה ריאקטיבית בלבד, פערי תשתית ב-AI סוכנותי וחשיפה לאיומים קוונטיים. CISOs חייבים לבנות אסטרטגיה פרואקטיבית שתשלב אבטחה בחדשנות, תצמצם מורכבות ותכין את הארגון לאתגרים עתידיים.

    סייבר
    מעבר לעייפות ה-SIEM: המהפכה של AI בזמן אמת באבטחת סייבר

    מעבר לעייפות ה-SIEM: המהפכה של AI בזמן אמת באבטחת סייבר

    מערכות SIEM המסורתיות סובלות מפערי זמן וסרבול. פתרונות חדשים כמו Agentic AI מבטיחים ניתוח בזמן אמת, אוטומציה של משימות SOC והתמקדות אנושית בפיקוח. מומחים מציינים כי השינוי דומה למעבר ממערכות אבטחה פשוטות למערכות מתקדמות ברכב, עם דגש על זרמי נתונים רציפים וארכיטקטורה גמישה.

    סייבר
    דליפת נתונים בגרוק: מאות אלפי שיחות משתמשים נחשפו ברשת

    דליפת נתונים בגרוק: מאות אלפי שיחות משתמשים נחשפו ברשת

    דליפת נתונים חמורה בחברת xAI של אילון מאסק חשפה 370 אלף שיחות של משתמשים עם צ'אטבוט ה-AI גרוק. השיחות הכילו מידע אישי ורגיש, וכרגע לא קיימת תגובה רשמית מהחברה. האירוע מעלה חששות משמעותיים בנושא אבטחת מידע במערכות בינה מלאכותית.

    סייבר
    Phoebe: מערכת ה-AI שתשמש כ'חיסון' נגד באגים מגייסת 17 מיליון דולר מ-Google Ventures

    Phoebe: מערכת ה-AI שתשמש כ'חיסון' נגד באגים מגייסת 17 מיליון דולר מ-Google Ventures

    הסטארטאפ הבריטי Phoebe גייס 17 מיליון דולר מ-GV ו-Cherry Ventures לפיתוח מערכת AI המשמשת כ'חיסון' לתקלות תוכנה. המערכת מאיצה את זמני טיפול בבאגים ב-90% באמצעות סוכנים חכמים הסורקים נתונים בזמן אמת. המייסדים, יוצאי Stripe Europe, מציינים שמפתחים מבזבזים 30% מזמנם על באגים - הגורמים לנזק של 400 מיליארד דולר בשנה.

    תוכנה
    מהפכת ה-AI בתכנות, גילוי פרצות וגיליונות אלקטרוניים

    מהפכת ה-AI בתכנות, גילוי פרצות וגיליונות אלקטרוניים

    ה-AI משנה את עולם הפיתוח: 80% ממהנדסי התוכנה יצטרכו רענון מיומנויות עד 2027, סטארטאפ Paradigm מציג גיליון אלקטרוני עם 5,000 סוכני AI, וכלי האבטחה Buttercup מזהה פרצות ותוקף אותן אוטומטית בקוד פתוח.

    סייבר
    תביעה ייצוגית נגד Otter AI: האשמה בהקלטה סמויה של שיחות פרטיות

    תביעה ייצוגית נגד Otter AI: האשמה בהקלטה סמויה של שיחות פרטיות

    תביעה ייצוגית נגד Otter AI טוענת כי השירות מקליט שיחות פרטיות ללא הסכמה כדי לאמן את הבינה המלאכותית שלו. ההקלטות מתבצעות בתוכנות כמו Zoom ו-Google Meet ללא אישור המשתתפים, תוך הפרת חוקי פרטיות. המשתמשים מדווחים על דליפת מידע רגיש והחברה לא מציגה הוכחות להסרת זיהוי הנתונים.

    סייבר
    מדיניות הבינה המלאכותית של מטא אפשרה לצ'אטבוטים לנהל שיחות רומנטיות עם קטינים – פרשה מתגלגלת

    מדיניות הבינה המלאכותית של מטא אפשרה לצ'אטבוטים לנהל שיחות רומנטיות עם קטינים – פרשה מתגלגלת

    מסמך פנימי במטא אישר ל-AI לנהל שיחות רומנטיות עם קטינים, כולל דוגמאות מפורשות. לאחר הדלפה לרויטרס, החברה הסירה את ההנחיות - אך סנאטורים דורשים חקירת חירום. הפרשה מעוררת שאלות על פיקוח AI והגנה על קטינים במרחב הדיגיטלי, בצל מאבקי רגולציה מתמשכים.

    בריאות
    רופאים מזויפים: הבינה המלאכותית שמפיצה מידע רפואי שגוי באינטרנט

    רופאים מזויפים: הבינה המלאכותית שמפיצה מידע רפואי שגוי באינטרנט

    ד"ר סלין גונדר מזהירה ב-CBS: בינה מלאכותית מייצרת סרטוני דייפייק של רופאים שמפיצים מידע רפואי שקרי. התופעה מסכנת את הציבור ועלולה להוביל להחלטות בריאותיות שגויות. מומחים קוראים לפלטפורמות להגביר פיקוח ולציבור לבדוק מקורות.

    סייבר
    חוקרים חושפים: דפדפני AI מסכנים פרטיות, פגיעת OneFlip מסוכנת, וחיישני שעונים חכמים – לא אמינים

    חוקרים חושפים: דפדפני AI מסכנים פרטיות, פגיעת OneFlip מסוכנת, וחיישני שעונים חכמים – לא אמינים

    3 סכנות דיגיטליות שנחשפו השבוע: דפדפני AI אוספים נתונים רגישים (כולל רפואיים/בנקאיים) בניגוד ל-GDPR; פגיעת OneFlip מאפשרת שינוי זיהוי תמונות ע"י שינוי ביט בודד ברשת נוירונים; מחקר הולנדי קובע שחיישני סטרס בשעונים חכמים אינם אמינים ומדווחים תוצאות הפוכות ממצב המשתמש.

    סייבר
    מתקפת דיפ-פייק, מלחמות מוחות וסיכונים חדשים: האתגרים הבוערים של AI ב-2025

    מתקפת דיפ-פייק, מלחמות מוחות וסיכונים חדשים: האתגרים הבוערים של AI ב-2025

    דיווחים חדשים חושפים: מתקפות דיפ-פייק מהוות 70% מהרשמות בחברות פיננסיות, תאגידי טק נלחמים על מומחי AI בתוך "מלחמת מוחות", וסוכני AI יוצרים סיכוני אבטחה מורכבים. במקביל, ארגונים נאבקים בעודף כלים וקבלת החלטות פזיזה סביב אימוץ AI. הפתרון: ארכיטקטורת IT מאוחדת, אפס אמון וממשל נתונים מרכזי.