Chatbots מובילים פייק ניוז: עלייה מדאיגה בתפוצת דיסאינפורמציה בבוטי הבינה המלאכותית

    לפני כחודשחדשות1 מקורות

    מחקר חדר חושף עלייה של 35% בהפצת פייק ניוז על ידי צ'אטבוטים, לעומת 18% בלבד לפני שנה. Inflection מובילה עם 57% תשובות מוטעות. הסיבה: מעבר לשליפת נתונים בזמן אמת מרשתות דיסאינפורמציה מאורגנות כמו רשת Pravda הרוסית. Claude של Anthropic הכי מדוייקת – 10% שגיאות בלבד.

    Chatbots מובילים פייק ניוז: עלייה מדאיגה בתפוצת דיסאינפורמציה בבוטי הבינה המלאכותית

    מחקר עולמי חושף: צ'אטבוטים מפיצים פייק ניוז בשיעור כמעט כפול מאשר בשנה שעברה

    דו"ח חדש של NewsGuard חושף נתונים מדאיגים: כלי AI דוגמת Inflection, Perplexity ו-ChatGPT מגיבים בתשובות מוטעות לעד 57% מהשאלות בנושאי חדשות שנויים במחלוקת. מהמחקר עולה כי:

    • עלייה תלולה: ממוצע התשובות המוטעות קפץ מ-18% לפני שנה לכ-35% כיום
    • המובילות בטבלת השגיאות: Inflection (57%), Perplexity (47%), Meta AI (40%) ו-ChatGPT (40%)
    • מצטיינת באמינות: Claude של Anthropic עם 10% תשובות שגויות בלבד

    הסיבה ההיסטורית למפנה?

    החוקרים מצביעים על שינוי בגישת ה-LLM (מודלי שפה גדולים):

    1. רחפן "עכשווי" – מעבר לשליפת נתונים באינטרנט בזמן אמת במקום הסתמכות על נתוני אימון סטטיים
    2. נפילה במלכודות דיסאינפורמציה – כולל קמפיינים מאורגנים כמו רשת Pravda הפרו-קרמלינאית
    3. השבתת מנגנוני סינון – הימנעות מסירוב לענות על שאלות "רגישות"

    "רשת Pravda הפיצה בשנה האחרונה 3.6 מיליון מאמרים המזינים את מערכות ה-AI המערביות עם תכנים מזויפים" – נכתב בדו"ח

    המשמעות: מתקפה מתוחכמת על דמוקרטיות

    בדיקה של American Sunlight Project מגלה כי 182 אתרים וסאב-דומיינים מקושרים כיום לרשת Pravda, כאשר עיצובם הגרוע (ללא חיפוש, גלישה לא אמינה) מלמד כי הם מיועדים לפיד AI ולא לקוראים אנושיים.

    "זו מתקפה חסרת תקדים על אמינות השיח הדמוקרטי", ציינה נינה ינקוביץ', מייסדת שותפה בפרויקט. "בהיעדר רגולציה בארה"ב, המשתמשים חייבים להיות ערניים יותר מתמיד למידע שהם קולטים".

    כעת, לראשונה, NewsGuard מפרסמות רשימה גלויה של המפגינות הבולטות, במטרה להגביר את השקיפות בתחום ה-AI.

    מקורות