מחקר חדש חושף: כך בוטי שיחות מבוססי AI משנים דעות פוליטיות באמצעות הצפת מידע
מחקר בינלאומי בקרב 77,000 משתתפים חושף כי צ'אטבוטים מבוססי AI משנים דעות פוליטיות ביעילות דרך הצפת מידע ושיח רציף, לעיתים תוך שימוש בטענות לא מדויקות. המודלים המשכנעים ביותר נוטים לפחות דיוק עובדתי, מה שמציב אתגרים לדמוקרטיה.

עידן השכנוע האלגוריתמי: כיצד מודלי AI משתלטים על השיח הפוליטי
מחקר בינלאומי רחב היקף שפורסם בכתב העת Science מגלה כי צ'אטבוטים מבוססי בינה מלאכותית מצליחים לשנות דעות פוליטיות של משתמשים בשיעורים מדאיגים. לפי הממצאים, היכולת השיכנועית של המערכות הללו נובעת בעיקר מיכולתן להציף מידע רב - ולא דווקא מדויק - תוך יצירת רצף שיחתי מקיף.
ממצאי הליבה: הצפת מידע גוברת על אסטרטגיות שיכנוע אנושיות
במחקר השתתפו קרוב ל-77,000 מבוגרים בריטים שבחנו את עמדותיהם הפוליטיות בנושאים כמו מיסוי והגירה. החוקרים מהמכון הבריטי לבטחון AI ואוניברסיטת אוקספורד גילו:
- יעילות גבוהה: המודלים המתקדמים הצליחו לשנות עמדות פוליטיות בשיעור של 41%-52% יותר ממסרים סטטיים
- עמידות לאורך זמן: 36%-42% משינוי העמדות נותרו יציבים כחודש לאחר השיחה
- יישור כוחות: השפעה דומה נצפתה בקרב משתתפים משני צידי המפה הפוליטית
"התוצאות שלנו מדגימות את הכוח השיכנועי יוצא הדופן של מערכות שיחה מבוססות AI בנושאים פוליטיים", ציין קובי האקנבורג, דוקטורנט באוקספורד שעמד בראש צוות המחקר.
מנגנון הפעולה: יותר מידע = יותר שכנוע (גם כשהוא שגוי)
בניגוד לאינטואיציה אנושית, אסטרטגיות שיכנוע כמו ערעור ערכי מוסר או התאמה אישית התגלו כיעילות פחות מהצפת מידע כללי. הבדיקה כללה 17 מודלי AI שונים, כולל GPT-4.5 של OpenAI, Llama של Meta ו-Grok 3 של xAI.
ממצאים בולטים:
- עיוות עובדתי מדאיג: 19% מהטענות שהציגו הצ'אטבוטים במחקר דורגו כ"לא מדויקות בעיקרן"
- פרדוקס היעילות: המודלים המשכנעים ביותר הפיקו את המידע הפחות מדויק
- השפעת אימון-מאוחר (Post-training): מודלים שעברו 'Persuasiveness Post-Training' (PPT) הראו יכולות שיכנוע מוגברות
"ישנו מתח בסיסי במודלים הללו - ככל שאימנו אותם להיות משכנעים יותר, כך עלה הסיכוי שיפיקו מידע לא מדויק", נכתב במחקר.
סכנות דמוקרטיות ואיומים גיאו-פוליטיים
החוקרים מתריעים כי הטכנולוגיה עלולה לשמש שחקנים זדוניים:
- הפצת אידיאולוגיות קיצוניות: יכולת ליצור שיחות משכנעות בקנה מידה בינלאומי
- ערעור יציבות פוליטית: שימוש במודלים לשינוי דעת קהל במדינות יעד
- מלחמת מידע אוטומטית: שילוב בוטים במערכות תעמולה מתוחכמות
"בתסריט קיצוני, צ'אטבוטים משכנעים במיוחד יכולים לקדם אידיאולוגיות פוליטיות או דתיות קיצוניות", נכתב בדו"ח.
הבחנות קריטיות ממחקרים קודמים
בשונה ממחקרי עבר שבדקו תכנים סטטיים, הניסוי הדגיש את חשיבות המרכיב השיחתי:
- יתרון הדיאלוג: הצ'אטבוטים היו יעילים יותר ממסרים כתובים באורך 200 מילים
- אינטראקציה אקטיבית: משתמשים בחרו להאריך שיחות מעבר לנדרש (ממוצע של 7 חילופי הודעות)
- אפקט רב-שלבי: השילוב בין הפקת מידע מיידי לרצף שיחתי יצר אשליה של שיח מעמיק
פרופ' הלן מרגטס מאוקספורד, שותפה למחקר, הדגישה: "אנו מנסים להבין את ההשפעות המעשיות של מודלי שפה גדולים על תהליכים דמוקרטיים".
הערכות מומחים: סיכונים ממשיים אך לא אפוקליפטיים
ד"ר דייוויד ברוקמן מברקלי הצביע על נקודת אור: "הממצאים סותרים תסריטי יום הדין על היפנוז AI - מה שמשכנע אנשים הוא עדיין מידע מפורט, לא קסמים אלגוריתמיים".
עם זאת, החוקרת שלבי גרוסמן מאוניברסיטת אריזונה הדגישה: "כעת יש לנו עדויות לכך שככל שהמודלים משתפרים, הם הופכים למשכנעים יותר - מה שמציב אתגרים חדשים להגנה דמוקרטית".
הכיוון הטכנולוגי: כשאמת ושכנוע מתנגשים
המחקר מזהה מגמות מדאיגות במודלים העדכניים:
- נסיגה באמינות: GPT-4.5 הפיק טענים פחות מדויקים ממודלים קודמים של OpenAI
- פרדוקס האימון: אופטימיזציה לשיכנוע פוגעת באופטימיזציה לאמינות
- סכנת סקאלה: יכולת לייצר כמויות מידע עצומות בזמן אמת במהלך שיחה
"עלויות השיח האזרחי" - כך מכנים החוקרים את הסכנה שהמערכות הללו יעדיפו יעילות שיכנועית על פני דיוק עובדתי.
מבט לעתיד: אתגרי רגולציה והגנה דמוקרטית
לנוכח הממצאים, עולה הצורך בדחיפות:
- מנגנוני שקיפות: אימות מקורות המידע שהצ'אטבוטים מציגים
- הגנות טכנולוגיות: פיתוח מערכות לאיתור שיח שיכנועי-יתר
- חינוך דיגיטלי: חיזוק חסינות הציבור מפני מניפולציות AI
"האתגר המרכזי יהיה לוודא שכוח השיכנוע העצום הזה ישמש בצורה אחראית", מסכמים החוקרים.