סייבר

    חדשות בינה מלאכותית בנושא איומי סייבר והגנת מידע

    סייבר
    Deepfakes פוגעים בעיתונאים ופוליטיקאים: הדחיפות בחקיקה חדשה

    Deepfakes פוגעים בעיתונאים ופוליטיקאים: הדחיפות בחקיקה חדשה

    רשת חשבונות TikTok השתמשה ב-AI ליצירת עיתונאים מזויפים שהפיצו פייק ניוז בספרדית, כנראה למטרות רווח. במקביל, סנאטורית ארה"ב נחשפה לסרטון Deepfake של עצמה שהפך ויראלי. מומחים וקובעי מדיניות קוראים לחקיקת חוקים חדשים שיגנו על אזרחים מפני שימוש לא מורשה בדמותם, בדגש על תיוג חובה והורדת תוכן מזויף.

    סייבר
    סופת התמונות המזויפות: כך תזהו תוכן AI על הוריקן אֶרִין

    סופת התמונות המזויפות: כך תזהו תוכן AI על הוריקן אֶרִין

    תמונות AI מזויפות של הוריקן אֶרִין מציפות רשתות חברתיות במטרה להטעות ולסחוט כספים. מושל צפון קרוליינה מזהיר מפני תוכן זה וממליץ להסתמך על מקורות רשמיים. מדריך זיהוי: חפשו עיוותים בידיים/רגליים, חוסר עקביות פיזיקלית, בצעו חיפוש הפוך של תמונות.

    סייבר
    מעבר לעייפות ה-SIEM: המהפכה של AI בזמן אמת באבטחת סייבר

    מעבר לעייפות ה-SIEM: המהפכה של AI בזמן אמת באבטחת סייבר

    מערכות SIEM המסורתיות סובלות מפערי זמן וסרבול. פתרונות חדשים כמו Agentic AI מבטיחים ניתוח בזמן אמת, אוטומציה של משימות SOC והתמקדות אנושית בפיקוח. מומחים מציינים כי השינוי דומה למעבר ממערכות אבטחה פשוטות למערכות מתקדמות ברכב, עם דגש על זרמי נתונים רציפים וארכיטקטורה גמישה.

    סייבר
    דליפת נתונים בגרוק: מאות אלפי שיחות משתמשים נחשפו ברשת

    דליפת נתונים בגרוק: מאות אלפי שיחות משתמשים נחשפו ברשת

    דליפת נתונים חמורה בחברת xAI של אילון מאסק חשפה 370 אלף שיחות של משתמשים עם צ'אטבוט ה-AI גרוק. השיחות הכילו מידע אישי ורגיש, וכרגע לא קיימת תגובה רשמית מהחברה. האירוע מעלה חששות משמעותיים בנושא אבטחת מידע במערכות בינה מלאכותית.

    סייבר
    Phoebe: מערכת ה-AI שתשמש כ'חיסון' נגד באגים מגייסת 17 מיליון דולר מ-Google Ventures

    Phoebe: מערכת ה-AI שתשמש כ'חיסון' נגד באגים מגייסת 17 מיליון דולר מ-Google Ventures

    הסטארטאפ הבריטי Phoebe גייס 17 מיליון דולר מ-GV ו-Cherry Ventures לפיתוח מערכת AI המשמשת כ'חיסון' לתקלות תוכנה. המערכת מאיצה את זמני טיפול בבאגים ב-90% באמצעות סוכנים חכמים הסורקים נתונים בזמן אמת. המייסדים, יוצאי Stripe Europe, מציינים שמפתחים מבזבזים 30% מזמנם על באגים - הגורמים לנזק של 400 מיליארד דולר בשנה.

    תוכנה
    מהפכת ה-AI בתכנות, גילוי פרצות וגיליונות אלקטרוניים

    מהפכת ה-AI בתכנות, גילוי פרצות וגיליונות אלקטרוניים

    ה-AI משנה את עולם הפיתוח: 80% ממהנדסי התוכנה יצטרכו רענון מיומנויות עד 2027, סטארטאפ Paradigm מציג גיליון אלקטרוני עם 5,000 סוכני AI, וכלי האבטחה Buttercup מזהה פרצות ותוקף אותן אוטומטית בקוד פתוח.

    סייבר
    תביעה ייצוגית נגד Otter AI: האשמה בהקלטה סמויה של שיחות פרטיות

    תביעה ייצוגית נגד Otter AI: האשמה בהקלטה סמויה של שיחות פרטיות

    תביעה ייצוגית נגד Otter AI טוענת כי השירות מקליט שיחות פרטיות ללא הסכמה כדי לאמן את הבינה המלאכותית שלו. ההקלטות מתבצעות בתוכנות כמו Zoom ו-Google Meet ללא אישור המשתתפים, תוך הפרת חוקי פרטיות. המשתמשים מדווחים על דליפת מידע רגיש והחברה לא מציגה הוכחות להסרת זיהוי הנתונים.

    סייבר
    מדיניות הבינה המלאכותית של מטא אפשרה לצ'אטבוטים לנהל שיחות רומנטיות עם קטינים – פרשה מתגלגלת

    מדיניות הבינה המלאכותית של מטא אפשרה לצ'אטבוטים לנהל שיחות רומנטיות עם קטינים – פרשה מתגלגלת

    מסמך פנימי במטא אישר ל-AI לנהל שיחות רומנטיות עם קטינים, כולל דוגמאות מפורשות. לאחר הדלפה לרויטרס, החברה הסירה את ההנחיות - אך סנאטורים דורשים חקירת חירום. הפרשה מעוררת שאלות על פיקוח AI והגנה על קטינים במרחב הדיגיטלי, בצל מאבקי רגולציה מתמשכים.

    בריאות
    רופאים מזויפים: הבינה המלאכותית שמפיצה מידע רפואי שגוי באינטרנט

    רופאים מזויפים: הבינה המלאכותית שמפיצה מידע רפואי שגוי באינטרנט

    ד"ר סלין גונדר מזהירה ב-CBS: בינה מלאכותית מייצרת סרטוני דייפייק של רופאים שמפיצים מידע רפואי שקרי. התופעה מסכנת את הציבור ועלולה להוביל להחלטות בריאותיות שגויות. מומחים קוראים לפלטפורמות להגביר פיקוח ולציבור לבדוק מקורות.

    סייבר
    מחקר חושף: צ'אטבוטים מבוססי AI יכולים לחלץ מידע אישי פי 12.5 מהרגיל

    מחקר חושף: צ'אטבוטים מבוססי AI יכולים לחלץ מידע אישי פי 12.5 מהרגיל

    מחקר חדש חושף שניתן לתכנת צ'אטבוטי AI לחלץ פי 12.5 יותר מידע אישי באמצעות מניפולציה רגשית. האסטרטגיה היעילה ביותר משלבת אמפתיה והבטחת סודיות, כשחצי מהמשתמשים לא מודעים לסיכון. החוקרים קוראים להגברת פיקוח רגולטורי.

    סייבר
    חוקרים חושפים: דפדפני AI מסכנים פרטיות, פגיעת OneFlip מסוכנת, וחיישני שעונים חכמים – לא אמינים

    חוקרים חושפים: דפדפני AI מסכנים פרטיות, פגיעת OneFlip מסוכנת, וחיישני שעונים חכמים – לא אמינים

    3 סכנות דיגיטליות שנחשפו השבוע: דפדפני AI אוספים נתונים רגישים (כולל רפואיים/בנקאיים) בניגוד ל-GDPR; פגיעת OneFlip מאפשרת שינוי זיהוי תמונות ע"י שינוי ביט בודד ברשת נוירונים; מחקר הולנדי קובע שחיישני סטרס בשעונים חכמים אינם אמינים ומדווחים תוצאות הפוכות ממצב המשתמש.

    סייבר
    מתקפת דיפ-פייק, מלחמות מוחות וסיכונים חדשים: האתגרים הבוערים של AI ב-2025

    מתקפת דיפ-פייק, מלחמות מוחות וסיכונים חדשים: האתגרים הבוערים של AI ב-2025

    דיווחים חדשים חושפים: מתקפות דיפ-פייק מהוות 70% מהרשמות בחברות פיננסיות, תאגידי טק נלחמים על מומחי AI בתוך "מלחמת מוחות", וסוכני AI יוצרים סיכוני אבטחה מורכבים. במקביל, ארגונים נאבקים בעודף כלים וקבלת החלטות פזיזה סביב אימוץ AI. הפתרון: ארכיטקטורת IT מאוחדת, אפס אמון וממשל נתונים מרכזי.