סיכוני פרטיות בשיחות עם צ'אטבוטים של בינה מלאכותית נחשפים במחקר חדש

    17 באוק׳ 2025, 13:25ניתוח1 מקורות

    מחקר סטנפורד חושף ששש חברות AI מובילות משתמשות בשיחות משתמשים לאימון מודלים כברירת מחדל, עם הגנת פרטיות מינימלית. הנתונים נשמרים לזמן בלתי מוגבל, ללא סינון מידע של ילדים ולעיתים משולבים עם נתונים מפלטפורמות נוספות. החוקרים קוראים לאופט-אין חובה, סינון נתונים אוטומטי וחקיקה פדרלית להגנה על משתמשים.

    סיכוני פרטיות בשיחות עם צ'אטבוטים של בינה מלאכותית נחשפים במחקר חדש

    חברות AI מובילות משתמשות בשיחות משתמשים לאימון מודלים

    מחקר חדש מטעם אוניברסיטת סטנפורד חושף כי שש חברות הטכנולוגיה המובילות בארה"ב - Amazon (Nova), Anthropic (Claude), Google (Gemini), Meta (Meta AI), Microsoft (Copilot) ו-OpenAI (ChatGPT) - משתמשות כברירת מחדל בשיחות משתמשים עם צ'אטבוטים שלהן לצורכי אימון והשבחת מודלי השפה.

    עיקרי הממצאים המדאיגים:

    1. מנגנוני אי-הסכמה מינימליים - רק חלק מהחברות מספקות אפשרות אופט-אאוט (opt-out) מניצול הנתונים, בעוד שאחת החברות (Meta) אינה מאפשרת זאת כלל

    2. אחסון נתונים בלתי מוגבל - מידע אישי המוזן למערכות עלול להישמר לתקופות ארוכות ללא מגבלות ברורות

    3. טשטוש גבולות הנתונים - חברות כמו Google ו-Meta משולבות נתונים מצ'אטבוטים יחד עם חיפושים, רכישות ופעילות במדיה חברתית

    4. פגיעה בפרטיות ילדים - מרבית החברות אינן מסננות נתונים של קטינים מלשמש לאימון מודלים, למרות איסורים חוקיים על שימוש בנתונים אלו ללא הסכמת הורים

    "אם תשתפו מידע רגיש בצ'אט עם ChatGPT, ג'מיני או מודלים אחרים - ייתכן שהוא ייאסף וינוצל לאימון, גם אם הקובץ נפרד מהשיחה עצמה" — ד"ר ג'ניפר קינג, מנהלת המחקר

    ההשלכות הפרקטיות:

    • נתונים בריאותיים שמוזנים למערכת (כגון מגבלות תזונה) יכולים להוביל לסיווגים אוטומטיים המשפיעים על הצגת פרסומות ממוקדות או אפילו דליפה לחברות ביטוח
    • חברת Anthropic שינתה באחרונה את תנאי השימוש כך ששיחות עם Claude ישמשו לאימון מודלים כברירת מחדל
    • Google הודיעה שתאמן מודלים על נתונים של בני נוער בתנאי שיבחרו באופט-אין

    דרישת החוקרים לשינוי:

    • חקיקה פדרלית מקיפה להגנת פרטיות
    • מעבר למודל אופט-אין (opt-in) במקום אופט-אאוט
    • סינון אוטומטי של מידע מזהה משיחות

    "כחברה, עלינו לשקול האם הפוטנציאל הטכנולוגי מצדיק את הפגיעה בפרטיות", מסכמת ד"ר קינג, וקוראת לקידום טכנולוגיות AI שומרות פרטיות.

    מחקר המלא פורסם במאגר arXiv באוקטובר 2025

    מקורות

    ידיעות קשורות