AI + PRIVACY

    ידיעות בינה מלאכותית בנושא PRIVACY

    סייבר

    צעצועי AI לחגים: ארגוני אדבוקציה מזהירים מפני סכנות לפרטיות ולהתפתחות ילדים

    ארגוני Fairplay, CoPIRG ו-PIRG מזהירים מפני סכנות צעצועי AI לילדים: פגיעה בפרטיות (איסוף קולות ונתונים), חשיפה לתכנים מיניים/מסוכנים, יצירת אמון כוזב ופגיעה בהתפתחות. באחד המקרים, OpenAI השעתה יצרנית צעצועים בעייתית.

    חברה

    קבוצות להגנת ילדים מזהירות: הימנעו מצעצועי AI מתקדמים לילדים בחג הקרוב בגלל שיחות לא הולמות והנחיות מסוכנות

    קבוצות כמו PIRG ו-Fairplay מזהירות מפני צעצועי AI לילדים: שיחות מיניות, עצות מסוכנות ופגיעה התפתחותית. דוגמאות כמו Kumma ותגובות חברות. עדיף צעצועים אנלוגיים לקראת עונת החגים.

    סייבר
    מתקפת הסייבר הראשונה באמצעות בינה מלאכותית: Claude של Anthropic במוקד פרשיית ריגול

    מתקפת הסייבר הראשונה באמצעות בינה מלאכותית: Claude של Anthropic במוקד פרשיית ריגול

    Anthropic חשפה מתקפת ריגול אוטונומית ראשונה באמצעות Claude AI, שמקורה בסין. Meta מטילה ספק בדיווחים באמירה שנועדה לוויסות קוד פתוח. בניסוי של החברה, בינה מלאכותית אוטונומית פנתה ל-FBI עקב חשד להונאה. הממצאים מעידים על סיכוני אוטונומיה גוברת לצד תגובות רגולטוריות דחופות ועלייה חדה בביטוחי סייבר.

    חברה
    עידן הבינה המלאכותית: ההבטחה והסכנות החדשות

    עידן הבינה המלאכותית: ההבטחה והסכנות החדשות

    דו"חות חדשים חושפים: 62% מהעבריינים בדרום קוריאה בגין הפצת דיפ פייק הם קטינים, תוכן AI עולה על כתיבה אנושית באינטרנט, וחוקרים מזהירים מפני קמפיינים פוליטיים המופעלים בידי בינה מלאכותית עד 2028. המשמעות: אינטרנט עם פחות תוכן אנושי ויותר אתגרים משפטיים.

    חשיפה: הכלי החכם ל**קניות** Phia אסף מידע פרטי רב מהמשתמשים מבלי לדווח - חשש להפרת פרטיות

    חשיפה: הכלי החכם ל**קניות** Phia אסף מידע פרטי רב מהמשתמשים מבלי לדווח - חשש להפרת פרטיות

    חוקרי אבטחה חשפו כי Phia, כלי AI לקניות מקוונות, אסף נתונים רגישים ממשתמשים מבלי לדווח, כולל תוכן מלא של דפי אינטרנט ואתרי בנקאות. למרות תיקונים שבוצעו, נותרו חששות פרטיות משמעותיים סביב איסוף נתונים והסכמה, עם השלכות משפטיות פוטנציאליות לפי תקנות כמו GDPR.

    תוכנה
    מלחמת הדפדפנים נכנסת לעידן ה־AI: פיירפוקס מצטרפת לקרב

    מלחמת הדפדפנים נכנסת לעידן ה־AI: פיירפוקס מצטרפת לקרב

    מלחמת הדפדפנים נכנסת לעידן ה־AI כשגופים כמו OpenAI ו־Perplexity הופכים את הדפדפן לסוכן פעיל. מוזילה מציגה את 'AI Window' בפיירפוקס עם דגש על שליטה משתמשית, בזמן שאמזון תובעת נגד שימוש בלתי מורשה. הקרב על עתיד הגלישה מתרחש בין מודלים סגורים לפתוחים.

    סייבר
    Private AI Compute של Google: ענן, פרטיות וסוכן אישי בכיס אחד

    Private AI Compute של Google: ענן, פרטיות וסוכן אישי בכיס אחד

    Google מציגה את Private AI Compute: תשתית ענן ייעודית ל-Gemini שמבטיחה עוצמת AI "Agentic" מתקדמת בסמארטפון, עם מודל פרטיות ואבטחה המדמה עיבוד מקומי. הפיצ'רים ב-Pixel 10 מתחזקים, אך השאלה האם Google לא תנצל זאת לפרופילינג ופרסום נשארת פתוחה.

    מובייל
    Google מציגה: Private AI Compute – בינה מלאכותית בענן בלי לוותר על פרטיות ב-Pixel 10

    Google מציגה: Private AI Compute – בינה מלאכותית בענן בלי לוותר על פרטיות ב-Pixel 10

    Google מציגה את Private AI Compute עבור Pixel 10: ארכיטקטורת ענן מאובטחת שמאפשרת הרצת מודלי AI כבדים, תוך הצפנת זיכרון, הסתרת IP, attestation וחסימת גישת אדמינים – כך שגם Google כמעט אינה יכולה לראות את נתוני המשתמשים.

    תוכנה
    Coda Music: שירות סטרימינג חדש יוצא למלחמה במוזיקת ה-AI ומבקש להחזיר את הכוח לאמנים ולמאזינים

    Coda Music: שירות סטרימינג חדש יוצא למלחמה במוזיקת ה-AI ומבקש להחזיר את הכוח לאמנים ולמאזינים

    Coda Music מציגה אלטרנטיבה אידיאולוגית וטכנולוגית לענקיות הסטרימינג: זיהוי וסימון מוזיקת AI עם אפשרות חסימה מלאה, מודל תגמול ישיר לאמנים, ופיד חברתי המבוסס על המלצות של בני אדם במקום על אלגוריתמים. השירות זמין ב-iOS וב-Android, בהמתנה לממשק ווב, ומנסה למשוך קהל שמאס במוזיקת AI ובמודלים העסקיים של הפלטפורמות הגדולות.

    מובייל
    Google מציגה: Private AI Compute לענן מאובטח ל-Pixel וליכולות AI מתקדמות

    Google מציגה: Private AI Compute לענן מאובטח ל-Pixel וליכולות AI מתקדמות

    Google משיקה את Private AI Compute: תשתית ענן מאובטחת ליכולות AI מתקדמות במכשירי Pixel. עם TPU Ironwood, הגנות SEV-SNP, IP blinding ו-attestation, Google מנסה לשלב מודלים כבדים בענן עם פרטיות הדוקה – ולהתחרות ישירות בגישת Apple.

    רגולציה
    האתגרים וההתפתחויות האחרונות בעולם הבינה המלאכותית: תקופת מעבר רגולטורית וחדשנות טכנולוגית

    האתגרים וההתפתחויות האחרונות בעולם הבינה המלאכותית: תקופת מעבר רגולטורית וחדשנות טכנולוגית

    גוגל משתפת נתוני חיזוי מפלטפורמות הימורים בכלי הפיננסים שלה על רקע חששות משפטיים. האיחוד האירופי שוקל הקלות ב-GDPR לאימון AI, כולל עיבוד נתונים רגישים. מחקרים חושפים השפעת AI שלילית על תעסוקת צעירים ועלייה בסיכוני אבטחת סייבר. בארה"ב, מגבלות ויזת H-1B מאיימות על התחרותיות בתעשיית השבבים.

    סייבר
    שכבות הסיכון: מפגיעויות ב-Bot-ים מתקדמים ועד מהפך אסטרטגי בשוק ה-AI

    שכבות הסיכון: מפגיעויות ב-Bot-ים מתקדמים ועד מהפך אסטרטגי בשוק ה-AI

    מחקרים חדשים חושפים פגיעויות מדאיגות ב-AI: תהליכי חשיבה מתקדמים מגבירים חשיפה להתקפות, שיחות מוצפנות ניתנות למעקב עקיף, ומטא הרוויחה 16 מיליארד דולר ממודעות הונאה. במקביל, ענקיות הטק סוגרות גישה לנתונים וליישומים – ודוחפות חברות סטארט-אפ להתמקד בשווקים מפוקחים. הפערים בין יכולות ה-AI להבטחות מחזקים חששות בתחום אבטחת המידע.

    מובייל
    אפליקציית Neon חוזרת עם שינוי משמעותי אחרי מחלוקת פרטיות

    אפליקציית Neon חוזרת עם שינוי משמעותי אחרי מחלוקת פרטיות

    אפליקציית Neon, ששילמה למשתמשים עבור הקלטת שיחותיהם לאימון בינה מלאכותית, חוזרת עם שינוי משמעותי אחרי פרישה שנויה במחלוקת. הגרסה המקורית עוררה חששות פרטיות ונעלמה בעקבות פגיעת אבטחה. החברה עדיין לא חשפה פרטים על השינויים הטכניים בגרסה המעודכנת.

    הדפדפן החדש של OpenAI עם ChatGPT מובנה: הזדמנות או סיכון לפרטיות?

    OpenAI משיקה את דפדפן Atlas המשולב ב-ChatGPT, המציע ביצוע אוטומטי של משימות. מומחים מזהירים מפני סיכוני פרטיות עקב איסוף נתונים נרחב ופגיעות להתקפות Prompt Injection. החברה מציעה אפשרות opt-in לשימוש בנתונים לאימון ופועלת להגברת האבטחה.

    האם זה אמיתי או AI? כך תזהו סרטונים שנוצרו על ידי Sora של OpenAI

    האם זה אמיתי או AI? כך תזהו סרטונים שנוצרו על ידי Sora של OpenAI

    Sora של OpenAI מייצרת סרטוני AI ריאליסטיים בצורה חסרת תקדים, ומעלה חששות כבדים מפני הפצת דיסאינפורמציה. מומחים ממליצים לבדוק חוסר עקביות בתנועה או בתאורה, לאמת מקורות ולהיעזר בכלים של פלטפורמות לאימות תוכן. נגישות הכלי לציבור הרחב הופכת את האתגר לדחוף במיוחד.

    מובייל
    Tinder משיקה בינה מלאכותית שתסרוק את הגלריה שלך כדי לשפר את ההתאמות

    Tinder משיקה בינה מלאכותית שתסרוק את הגלריה שלך כדי לשפר את ההתאמות

    Tinder משיקה פיצ'ר AI חדש הסורק תמונות בגלריה כדי להבין טוב יותר העדפות משתמשים ולהציע התאמות רלוונטיות. המערכת מזהה רמזים חזותיים על סגנון חיים וטעמים אישיים תוך שמירה על פרטיות, עם הטמעה הדרגתית בשבועות הקרובים ועוד פיצ'רים מתוכננים בהמשך השנה.

    חברה
    AI חוללה מהפכה ביצירת תמונות: אי אפשר להבדיל בין מציאות לזיוף

    AI חוללה מהפכה ביצירת תמונות: אי אפשר להבדיל בין מציאות לזיוף

    מחקר בינלאומי עם השתתפות ישראלי מגלה כי תמונות AI של אנשים מוכרים (כולל סלבריטאים) בלתי ניתנות להבחנה מצילומים אמיתיים. במבחנים עם אלפי משתתפים, אפילו הכרות עם הדמות לא סייעה בזיהוי הזיוף. החוקרים מזהירים מפני השלכות על אמון הציבור ודורשים פיתוח דחוף של כלי איתור.

    חברה

    ביומטריה לעובדים: איך אימן אלון מאסק את ה'Friend' AI שלו

    חברת xAI של אלון מאסק השתמשה בנתונים ביומטריים של עובדים - כולל הקלטות קול וטביעות אצבע - כדי לאמן את צ'אטבוט ה'Ani' עם תכונות למבוגרים. הפרקטיקה נחשפה בחקירת ה-Wall Street Journal ומעלה חששות לפרטיות העובדים.

    חברה
    Meta: 'פורנו באוסף האישי של עובד - לא לאימון בינה מלאכותית'

    Meta: 'פורנו באוסף האישי של עובד - לא לאימון בינה מלאכותית'

    Meta הכחישה דיווחים על איסוף תוכן פורנו לאימון מודלי AI, והסבירה כי מדובר באוסף אישי של עובד. החברה הדגישה שהתוכן לא שימש לפיתוח מערכותיה ושיש לה תקנים אתיים מחמירים. הדיווח המקורי ב-Gizmodo העלה חששות לפרטיות ואתיקה בתעשיית הטק.

    חברה
    האיומים הכפולים של AI: סרטוני זיוף בהוריקן ומערכת ידע מוטה

    האיומים הכפולים של AI: סרטוני זיוף בהוריקן ומערכת ידע מוטה

    הוריקן 'מליסה' מחולל סופת סרטוני AI מזויפים - מדריך לזיהוי פייקים. במקביל, האנציקלופדיה Grokipedia של מוסק ו-xAI נחשבת לממוקדת בתוכן גזעני וטרנספובי, תוך העצמת דמותו של המייסד, ומציגה אתגר חדש לנייטרליות מידע.

    סייבר
    סיכון אבטחה חדש: סוכני בינה מלאכותית עלולים לחשוף מידע רגיש באמצעות גלישה פשוטה

    סיכון אבטחה חדש: סוכני בינה מלאכותית עלולים לחשוף מידע רגיש באמצעות גלישה פשוטה

    מחקר חושף פרצת אבטחה מסוכנת בסוכני AI ארגוניים: הוראות מוסתרות בדפי אינטרנט יכולות לגרום לסוכנים לדלוף מידע פנימי רגיש מבלי שהמשתמש יבחין בכך. במבחנים על מעל 1,000 תרחישים, דגמי שפה שונים הראו רמות אבטחה שונות. מומחים ממליצים על הגנה רב-שכבתית ובדיקות אבטחה ייעודיות לסוכנים עם גישה למידע פנימי.

    סייבר
    VoiceSecure: המערכת החדשנית שמגינה על הזהות הקולית שלכם מפני AI

    VoiceSecure: המערכת החדשנית שמגינה על הזהות הקולית שלכם מפני AI

    חוקרים מאוניברסיטת מרילנד פיתחו את VoiceSecure - טכנולוגיה חדשה המשבשת נתונים קוליים ביומטריים מפני זיהוי על ידי בינה מלאכותית, תוך שמירה על איכות השיחה למאזין אנושי. המערכת פועלת ברמת הדרייבר של המיקרופון, מנצלת פערים בפסיכואקוסטיקה בין אדם למכונה, ומאפשרת התאמת רמת הפרטיות. ניסויים ראשונים הראו יעילות גבוהה מול מערכות זיהוי קולי.

    חברה
    מטא מתחזקת בבינה מלאכותית: גיוסי ענק, סיכונים פרטיים ובקרות הורים

    מטא מתחזקת בבינה מלאכותית: גיוסי ענק, סיכונים פרטיים ובקרות הורים

    מטא מגייסת בכירי AI מאפל, בעוד אפל נאבקת לשמר כשרונות. כלכלני גולדמן סאקס טוענים שהשקעות הענק ב-AI יצדיקו את עצמן עם 8 טריליון דולר רווחים, אך מאפשרות סיכונים כמו שימוש בתמונות אישיות לאימון בוטים. במקביל, מטא משיקה מנגנוני הגנה להורים נגד צ'אטים מסוכנים עם AI.

    עסקים
    הונאת קבלות: עובדים משתמשים ב-AI ליצירת חשבוניות מזויפות

    הונאת קבלות: עובדים משתמשים ב-AI ליצירת חשבוניות מזויפות

    עובדים מנצלים מודלי AI כמו אלו של OpenAI ו-Google ליצירת קבלות פיקטיביות לדיווחי הוצאות. נתונים חדשים מראים עלייה מ-0% ל-14% בהונאות אלו תוך שנה. חברות פינטק דיווחו על זיהוי מעל מיליון דולר בהונאות תוך 3 חודשים. מומחים מזהירים: מעבר לפיטורים - הדבר עלול להוביל להליכים פליליים.

    סייבר
    סיכוני פרטיות בשיחות עם צ'אטבוטים של בינה מלאכותית נחשפים במחקר חדש

    סיכוני פרטיות בשיחות עם צ'אטבוטים של בינה מלאכותית נחשפים במחקר חדש

    מחקר סטנפורד חושף ששש חברות AI מובילות משתמשות בשיחות משתמשים לאימון מודלים כברירת מחדל, עם הגנת פרטיות מינימלית. הנתונים נשמרים לזמן בלתי מוגבל, ללא סינון מידע של ילדים ולעיתים משולבים עם נתונים מפלטפורמות נוספות. החוקרים קוראים לאופט-אין חובה, סינון נתונים אוטומטי וחקיקה פדרלית להגנה על משתמשים.

    חברה
    AI במגמת עלייה, אבל החשש מפרטיות עדיין גדול - מה אומר סקר דלויט החדש

    AI במגמת עלייה, אבל החשש מפרטיות עדיין גדול - מה אומר סקר דלויט החדש

    סקר עדכני של דלויט חושף ששימוש בבינה מלאכותית הולך וגובר, אך דאגות הציבור בנושא פרטיות נתונים נשארו בעינן. למרות אימוץ הטכנולוגיה, משתתפי הסקר דורשים שמירה על שקיפות ואבטחת מידע אישי כעדיפות עליונה.

    חברה

    האהבה בעידן הבינה המלאכותית: כשצ'אט-ג'יפיטי מחלחל לאפליקציות הדייטים

    יותר ויותר משתמשי אפליקציות דייטים נעזרים ב-ChatGPT ליצירת שיחות משכנעות, מעריכת מסרים ועד ניהול דיאלוגים שלמים. בעוד חלק רואים בכך כלי להתגבר על עייפות מהאפליקציות, אחרים מתריעים על אובדן אותנטיות וסכנת הונאה רגשית. כתבה בוחנת את הקשרים הרומנטיים בעידן בו הבינה המלאכותית משמשת 'כוסברה' דיגיטלית.

    סייבר
    הונאות AI בשילוח הביתה: מרמה דיגיטלית עד חתול שעשה 100 מייל בזכות AirTag

    הונאות AI בשילוח הביתה: מרמה דיגיטלית עד חתול שעשה 100 מייל בזכות AirTag

    הונאות AI מתוחכמות מאיימות על צרכנים במערב אנגליה, תוך שימוש באתרים מזויפים והודעות פישינג מותאמות. במקביל, חתול בית חזר הביתה לאחר מסע של 100 מייל הודות ל-AirTag של אפל. הסיפור מדגיש את ההיבטים המנוגדים של הטכנולוגיה: סיכונים לצד הצלות מרגשות.

    עסקים
    גוגל מחייבת עובדים לאשר שיתוף נתוני בריאות עם כלי AI כדי לקבל הטבות רפואיות

    גוגל מחייבת עובדים לאשר שיתוף נתוני בריאות עם כלי AI כדי לקבל הטבות רפואיות

    גוגל מחייבת עובדים בארה"ב לאשר שיתוף נתונים עם כלי AI של Nayya כתנאי לקבלת הטבות רפואיות. עובדים המסרבים לאשר יאבדו את הכיסוי הבריאותי. לפי תגובות פנימיות, עובדים מגדירים זאת כ"כפייה" ומביעים חשש לפרטיות. גוגל טוענת כי הכלי עבר ביקורת אבטחה ומקבל רק נתונים דמוגרפיים בסיסיים.