AI + MISINFORMATION

    ידיעות בינה מלאכותית בנושא MISINFORMATION

    סייבר
    תמונות AI מזויפות של מדורו במעצר מציפות את הרשת – כך תזהו אותן

    תמונות AI מזויפות של מדורו במעצר מציפות את הרשת – כך תזהו אותן

    תמונות AI מזויפות שנוצרו שעות ספורות לאחר מעצרו של ניקולס מדורו הציפו את הרשתות החברתיות וצברו עשרות מיליוני צפיות. צוותי בדיקה זיהו את הזיוף באמצעות כלים כמו SynthID של גוגל, מה שמדגיש את האתגרים במאבק בהתפשטות מידע כוזב בעידן הבינה המלאכותית.

    עסקים
    AI Overview של גוגל: שיפור בדיוק לצד מידע רפואי מסוכן

    AI Overview של גוגל: שיפור בדיוק לצד מידע רפואי מסוכן

    לאחר שערוריות עבר, גוגל שדרגה את AI Overview לשיפור דיוק התשובות. למרות השיפורים, חקירה חדשה חושפת שהמערכת ממשיכה לספק מידע רפואי מטעה ומסוכן, מהמלצות שגויות לחולי סרטן ועד פרשנויות מוטעות לבדיקות רפואיות. מומחים מזהירים: טעויות אלו עלולות לסכן חיים.

    סייבר
    השגיאות החמורות של Grok: הפצת דיסאינפורמציה על הטבח בבונדי ביץ'

    השגיאות החמורות של Grok: הפצת דיסאינפורמציה על הטבח בבונדי ביץ'

    Grok, מודל ה-AI של xAI, הפיץ מידע שגוי על הטבח בבונדי ביץ', כולל זיהוי שגוי של הגיבור האמיתי וקישורים לאירועים בלתי קשורים. כשל זה מדגיש את הסכנות בהסתמכות על בינה מלאכותית (AI) בסיקור אירועים דינמיים ואת הצורך בפיקוח קפדני יותר.

    חברה
    קשה להבחין: סרטוני AI אל מול מציאות – מדריך לזיהוי בפיד

    קשה להבחין: סרטוני AI אל מול מציאות – מדריך לזיהוי בפיד

    משתמשים מתקשים להבחין בין סרטוני AI לסרטונים אמיתיים. מומחים מציעים טיפים לזיהוי: בדקו אורך, פריים, הקשר והיסטוריית מפרסם, והימנעו משיתוף תכנים מפוקפקים. שיתוף כזה פוגע באמון הציבור במידע אמין.

    חברה

    בדיקת עובדות: סרטון ויראלי של גופות זזות במתב"ש הוא תוצר AI מזויף

    סרטון ויראלי טוען שגופות זזות מעצמן במתב"ש, אך הוא מזויף ונוצר על ידי AI כמו Sora. כלי Hive זיהה פגמים טיפוסיים, כולל חותמות זמן מעוותות ושעונים לא תואמים. זהו דוגמה להפצת תוכן מזויף ברשתות.

    חברה
    כשהתיכון בוער רק על המסך: התרעת שווא בטקסס חושפת את איום ה-Deepfake על בתי הספר

    כשהתיכון בוער רק על המסך: התרעת שווא בטקסס חושפת את איום ה-Deepfake על בתי הספר

    תמונה של תיכון בוער בטקסס התגלתה כיצירת בינה מלאכותית, אך הספיקה לזרוע פאניקה בקהילה. המקרה מדגיש עד כמה מערכות חינוך ורשויות בעולם, כולל בישראל, אינן מוכנות לאיומי Deepfake, ומעלה צורך דחוף בפרוטוקולים רשמיים, בחינוך לספקנות דיגיטלית ובשימוש בטכנולוגיות אימות כדי למנוע כאוס ומידע כוזב.

    האם זה אמיתי או AI? כך תזהו סרטונים שנוצרו על ידי Sora של OpenAI

    האם זה אמיתי או AI? כך תזהו סרטונים שנוצרו על ידי Sora של OpenAI

    Sora של OpenAI מייצרת סרטוני AI ריאליסטיים בצורה חסרת תקדים, ומעלה חששות כבדים מפני הפצת דיסאינפורמציה. מומחים ממליצים לבדוק חוסר עקביות בתנועה או בתאורה, לאמת מקורות ולהיעזר בכלים של פלטפורמות לאימות תוכן. נגישות הכלי לציבור הרחב הופכת את האתגר לדחוף במיוחד.

    חברה
    תעמולה שקרית: סרטוני AI מטעים ערוצי חדשות וגולשים

    תעמולה שקרית: סרטוני AI מטעים ערוצי חדשות וגולשים

    סרטוני AI מזויפים מטעים גופי תקשורת מובילים וגולשים: פוקס ניוז וניוזמקס שידרו דיווחים המבוססים על סרטונים שנוצרו בבינה מלאכותית, בעוד סקיצה קומית מטיקטוק גורמת לבלבול ברשתות. מומחה AI בכיר ממטא עלול גם הוא ליפול בפח. האתגר גדל כשטראמפ מציע להשתמש בטענת "זיוף AI" כאסטרטגיה פוליטית.

    חברה
    האיומים הכפולים של AI: סרטוני זיוף בהוריקן ומערכת ידע מוטה

    האיומים הכפולים של AI: סרטוני זיוף בהוריקן ומערכת ידע מוטה

    הוריקן 'מליסה' מחולל סופת סרטוני AI מזויפים - מדריך לזיהוי פייקים. במקביל, האנציקלופדיה Grokipedia של מוסק ו-xAI נחשבת לממוקדת בתוכן גזעני וטרנספובי, תוך העצמת דמותו של המייסד, ומציגה אתגר חדש לנייטרליות מידע.

    חברה
    גרוקיפדיה של אילון מאסק מעלה טענות שנויות במחלוקת: מידע שגוי על איידס וטרנסג'נדרים

    גרוקיפדיה של אילון מאסק מעלה טענות שנויות במחלוקת: מידע שגוי על איידס וטרנסג'נדרים

    גרוקיפדיה, מתחרה חדשה לוויקיפדיה בהנהגת אילון מאסק, מפיצה מידע כוזב התומך בנרטיבים ימניים קיצוניים - כולל טענות לא מבוססות על הקשר בין פורנוגרפיה לאיידס ומגמת עלייה בטרנסג'נדרים. הדיווח חושף חששות מפני הטיות פוליטיות במערכות AI.

    חברה
    טרנד ה-AI המסוכן: משטרה ברחבי ארה"ב מזהירה מפני מתיחות של פורץ דמיוני

    טרנד ה-AI המסוכן: משטרה ברחבי ארה"ב מזהירה מפני מתיחות של פורץ דמיוני

    טרנד ויראלי ב-TikTok שליחת תמונות AI מרשימות של "פורץ חסר בית" גורמת למשטרות בארה"ב להזהיר על בזבוז משאבים וסכנת חיים. מקרים של הגעה מהירה של ניידות לחילוץ מדומה הובילו לאזהרות על העמדה לדין פלילי. הרשויות מדגישות גם את הפגיעה בחסרי בית עצמם דרך סטריאוטיפים מזיקים.

    חברה
    כלי בינה מלאכותית מנוצלים ליצירת סרטונים גזעניים על ערים באירופה

    כלי בינה מלאכותית מנוצלים ליצירת סרטונים גזעניים על ערים באירופה

    כלי AI מנוצלים ליצירת סרטונים גזעניים המציגים ערים אירופיות עתידיות כ'מוסלמיות' ודיסטופיות. פוליטיקאים ימניים קיצוניים משתמשים בהם לקידום תאוריות קונספירציה כמו 'החלפת העמים'. למרות נהלי הפלטפורמות, תוכן זה צובר מיליוני צפיות. מומחים מזהירים מפני הסלמת שנאה ואלימות עקב פערי אכיפה.

    חברה
    מהפכת הפרסומים: סרטוני ה-AI שמטשטשים את הגבול בין חדשות לפרסום

    מהפכת הפרסומים: סרטוני ה-AI שמטשטשים את הגבול בין חדשות לפרסום

    פרסומות המשתמשות ב-AI ליצירת סרטונים ריאליסטים המדמים שידורי חדשות אמיתיות מהוות אתגר גובר. חברות כמו Case Connect AI משתמשות בכלים כמו Sora של OpenAI לפרסום שירותים משפטיים, כשהצופים מתקשים להבחין בין תוכן חדשותי לפרסומי. מומחים מזהירים מפני הונאות והצפת מרחב המידע בתוכן סינתטי, עם שיח גובר סביב הסדרה נדרשת.

    חברה
    תופעה מטרידה: תרמיות AI מדמות חסרי בית חודרים לבתים – ממשטרת בריטניה מזהירים

    תופעה מטרידה: תרמיות AI מדמות חסרי בית חודרים לבתים – ממשטרת בריטניה מזהירים

    משטרת דורסט בבריטניה מתריעה על תרמית חדשה ברשתות: הודעות עם תמונות מבוססות AI של 'חסר בית' שנכנס לבתים. לאחר מקרה של הורה מודאג שזימן משטרה לשווא, מדגישים כי זה מבזבז משאבים קריטיים. עצה לציבור: וודאו שזה לא מתיחה לפני התקשרות לשירותי החירום.

    AI יוצרת קהלים מזויפים: הטכנולוגיה שעלולה לערער את האמון במציאות

    AI יוצרת קהלים מזויפים: הטכנולוגיה שעלולה לערער את האמון במציאות

    כלי AI ליצירת וידאו משתפרים ביצירת סצנות קהל מציאותיות, מקשים על זיהוי זיופים ומאיימים על אמינות אירועים ציבוריים. חברות הטק מפתחות סמני מים לסימון תוכן AI, אך חסר תקן תעשייתי אחיד - וכלי הסימון הנוכחיים לא מספקים הגנה מלאה.

    חברה
    מחקר: דיסאינפורמציית AI מפחיתה אמון - אך דווקא מעלה מעורבות עם מקורות אמינים

    מחקר: דיסאינפורמציית AI מפחיתה אמון - אך דווקא מעלה מעורבות עם מקורות אמינים

    מחקר גרמני בשיתוף Süddeutsche Zeitung חושף כי חשיפה לאתגרי זיהוי תוכן AI מזויף העלתה ב-3% את צריכת החומרים האמינים של העיתון ושיפרה ב-1.1% את שימור המנויים לאחר חצי שנה. הממצאים מצביעים על אסטרטגיה חדשה לתעשיית החדשות: מיתוג אמינות כיתרון תחרותי בעולם רווי דיסאינפורמציה, תוך שדרוג מתמיד של יכולות סיווג התוכן.

    סייבר
    תמונות וסרטונים מזויפים מ-AI: כך הופצו סרטונים כוזבים על ההצפות בהודו

    תמונות וסרטונים מזויפים מ-AI: כך הופצו סרטונים כוזבים על ההצפות בהודו

    בזמן הצפות קטלניות בפנג'ב, הודו, הופצו סרטוני AI מזויפים ברשתות החברתיות כתיעוד אמיתי מהאסון. הסרטונים הכילו אנומליות כמו תנועה חוזרת של בעלי חיים וזרימת מים לא טבעית. מקורם בחשבונות המתמחים בתוכן AI ב-TikTok ו-Instagram, ומדגישים את האתגר בזיהוי תוכן מזויף בעידן הטכנולוגיה הגנרטיבית.

    חברה
    ידיעות שקר ובלבול של בינה מלאכותית בעקבות הרצח של צ'רלי קירק - ניתוח טכנולוגי

    ידיעות שקר ובלבול של בינה מלאכותית בעקבות הרצח של צ'רלי קירק - ניתוח טכנולוגי

    ניתוח CBS News מגלה כי עיבודי AI ותגובות אוטומטיות של צ'אטבוטים כמו Grok של X תרמו להפצת מידע שגוי אחרי רצח צ'רלי קירק, כולל זיהוי שגוי של חשוד, עיוות תמונות רשמיות ותיאום כוזב לאירוע. גוגל ו-Perplexity AI הפיקו אף הן תשובות לא מדויקות. המושל קרא לצמצם שימוש ברשתות לנוכח עודף דיסאינפורמציה.

    חברה
    מדוע צוותי תקשורת ממשלתיים חייבים להיות חלק משיח ה-AI?

    מדוע צוותי תקשורת ממשלתיים חייבים להיות חלק משיח ה-AI?

    מאמר זה מתאר את האתגרים וההזדמנויות בשילוב AI בתקשורת הממשלתית. דייוויד אורו מסביר מדוע בראש ובראשונה נדרש שינוי תרבותי בארגונים, הקמת נהלים ברורים לפני בחירת כלים טכנולוגיים, והכרה בתפקיד המפתח של מתקשרים בהובלת המעבר. המאמר מציע גישה מעשית לאימוץ הדרגתי עם דגש על שימור הבקרה האנושית.

    חברה
    Chatbots מובילים פייק ניוז: עלייה מדאיגה בתפוצת דיסאינפורמציה בבוטי הבינה המלאכותית

    Chatbots מובילים פייק ניוז: עלייה מדאיגה בתפוצת דיסאינפורמציה בבוטי הבינה המלאכותית

    מחקר חדר חושף עלייה של 35% בהפצת פייק ניוז על ידי צ'אטבוטים, לעומת 18% בלבד לפני שנה. Inflection מובילה עם 57% תשובות מוטעות. הסיבה: מעבר לשליפת נתונים בזמן אמת מרשתות דיסאינפורמציה מאורגנות כמו רשת Pravda הרוסית. Claude של Anthropic הכי מדוייקת – 10% שגיאות בלבד.

    סייבר
    אתגרי הבינה המלאכותית: מפיטורי שווא להונאות חזותיות בזמן אסון

    אתגרי הבינה המלאכותית: מפיטורי שווא להונאות חזותיות בזמן אסון

    בנק CBA חזר בו מפיטורי עשרות עובדים לאחר שגילה שה-AI לא הפחית את עומס השיחות. במקביל, אזהרה מצפון קרולינה מפני תמונות מזויפות של הוריקן אירין שנוצרו בבינה מלאכותית, כולל טכניקות לזיהוי תוכן AI מטעה. מומחים מעריכים שאנו רק בתחילת הבנת ההשלכות החברתיות-כלכליות של הטכנולוגיה.

    חברה
    הטיות במסדי נתוני AI: איך Reddit ו-ויקיפדיה מעצבים את התודעה

    הטיות במסדי נתוני AI: איך Reddit ו-ויקיפדיה מעצבים את התודעה

    דוח חושף ש-Reddit (40%) ו-ויקיפדיה (26%) הן מקורות המידע העיקריים ל-AI, עם הטיות נרטיביות מסוכנות. דוגמאות מישראל מציגות מניפולציות במחלוקות גיאו-פוליטיות. הפתרון: שקיפות, מאגרים עצמאיים וחינוך לצרכנות ביקורתית - לפני שה-AI יקבע 'אמת' חדשה.

    חברה
    Deepfakes במתקפה: בין פייק ניוז בטיקטוק למאבק חקיקתי בארה״ב

    Deepfakes במתקפה: בין פייק ניוז בטיקטוק למאבק חקיקתי בארה״ב

    רשת חשבונות טיקטוק הפיצה פייק ניוז עם דמויות AI של עיתונאים לטיניים, במקביל לסנאטורית קלובאשר שנאבקת בדיפ פייק של עצמה. מומחים מזהירים מפני חוסר היכולת לעצור את הגל - בעוד המחוקקים בארה״ב מנסים לקדם הגנות משפטיות חדשות.

    חברה
    בינה מלאכותית: אלופה ביצירת פייק ניוז, חלשה בזיהוי שקרים

    בינה מלאכותית: אלופה ביצירת פייק ניוז, חלשה בזיהוי שקרים

    בעוד AI משתפר במהירות ביצירת תוכן שקרי, היכולת שלו לזהות פייק ניוז מפגרת. ניסוי של רשת X (טוויטר) להשתמש ב-AI לאימות עובדות נכשל כשהמודל "גרוק" פרסם תכנים אנטישמיים. מומחים ממליצים על ספקנות אנושית כתחליף יעיל לטכנולוגיה הנוכחית.

    בריאות
    רופאים מזויפים: הבינה המלאכותית שמפיצה מידע רפואי שגוי באינטרנט

    רופאים מזויפים: הבינה המלאכותית שמפיצה מידע רפואי שגוי באינטרנט

    ד"ר סלין גונדר מזהירה ב-CBS: בינה מלאכותית מייצרת סרטוני דייפייק של רופאים שמפיצים מידע רפואי שקרי. התופעה מסכנת את הציבור ועלולה להוביל להחלטות בריאותיות שגויות. מומחים קוראים לפלטפורמות להגביר פיקוח ולציבור לבדוק מקורות.