מומחים מעריכים את אמינות כלי זיהוי התוכן המיוצר על ידי AI
מומחים בוחנים כיצד כלי זיהוי AI פועלים ומגבלותיהם. הם מבוססי דפוסים, מטא-דאטה וסימני מים, אך סובלים מטעויות, חוסר הסבריות והטעיות. מומלץ לשלב שיטות מגוונות לאימות תוכן.
מומחים מעריכים את אמינות כלי זיהוי התוכן המיוצר על ידי AI
בעידן שבו כמעט מחצית מאזרחי אוסטרליה מדווחים על שימוש כלים של בינה מלאכותית (AI) בשבועות האחרונים, חשיבות היכולת לזהות מתי וכיצד משתמשים בכלים אלה הופכת קריטית יותר ויותר. חברת הייעוץ Deloitte נאלצה להחזיר חלקית כספים לממשלת אוסטרליה לאחר שדו"ח שפרסמה הכיל שגיאות שנוצרו על ידי AI. עורך דין נענש לאחרונה בגלל ציטוטים כוזבים שנוצרו על ידי AI במסמך משפטי רשמי. אוניברסיטאות רבות חוששות משימוש סטודנטים בכלי AI. בתגובה לכך, צמחו מגוון כלי "זיהוי AI" כדי לענות על הצורך בתוכן אמין, מהימן ומאומת. אך כיצד הכלים הללו פועלים למעשה? והאם הם יעילים בזיהוי תוכן שנוצר על ידי AI?
כיצד כלי זיהוי AI פועלים?
קיימות כמה גישות שונות, והיעילות שלהן תלויה בסוג התוכן. לגבי טקסט, כלי זיהוי מנסים להסיק מעורבות של AI על ידי חיפוש אחר "דפוסי חתימה" במבנה המשפטים, בסגנון הכתיבה ובצפויות של מילים או ביטויים מסוימים. לדוגמה, השימוש במילים כמו "delves" ו-"showcasing" זינק מאז שהפכו זמינים כלי כתיבה מבוססי AI. עם זאת, ההבדל בין דפוסי AI לדפוסי בני אדם מצטמצם בהדרגה. זה הופך כלים מבוססי חתימה לבלתי אמינים מאוד.
במקרה של תמונות, חלק מהכלים מנתחים מטא-דאטה מוטבעת שהכלים של AI מוסיפים לקובץ התמונה. לדוגמה, כלי Content Credentials מאפשר לבדוק כיצד ערכו משתמש בתוכן, בתנאי שהוא נוצר ועודכן בתוכנה תואמת. כמו בטקסט, תמונות ניתן להשוות למאגרי נתונים מאומתים של תוכן שנוצר על ידי AI, כמו deepfakes.
לבסוף, כמה מפתחי AI החלו להוסיף סימני מים (watermarks) לפלט של מערכות ה-AI שלהם. אלה דפוסים נסתרים בכל סוג תוכן, בלתי נראים לעין האנושית אך ניתנים לזיהוי על ידי מפתח ה-AI. אף אחד ממפתחי ה-AI הגדולים לא שיתף את כלי הזיהוי שלו עם הציבור עדיין.
כל אחת מהשיטות הללו כוללת חסרונות ומגבלות. לדוגמה, זיהוי מבוסס חתימה עלול להיכשל כשה-AI מתקדם, ומטא-דאטה ניתן להסיר בקלות. סימני מים יעילים רק בתוך אותה מערכת.
כמה יעילים כלי זיהוי AI?
היעילות תלויה במספר גורמים, כולל הכלי שבו נוצר התוכן, אם הוא עבר עריכה לאחר מכן, ואיכות נתוני האימון של הכלי. לדוגמה, מאגרי נתונים מרכזיים לזיהוי תמונות שנוצרו על ידי AI חסרים תמונות גוף מלא של אנשים או תמונות מתרבויות מסוימות, מה שמגביל את הזיהוי בהקשרים שונים.
זיהוי מבוסס סימני מים יכול להיות טוב בזיהוי תוכן שנוצר על ידי כלי AI של אותה חברה. לדוגמה, אם משתמשים במודל AI של Google כמו Imagen, כלי SynthID של Google טוען שהוא יכול לזהות את הפלט. אך SynthID אינו זמין לציבור עדיין, והוא לא יעבוד אם התוכן נוצר על ידי ChatGPT, שאינו של Google. חוסר התאימות בין מפתחי AI הוא בעיה מרכזית.
כלי זיהוי ניתנים להטעיה אם הפלט עובר עריכה. לדוגמה, אם משתמשים באפליקציית שיבוט קול ואז מוסיפים רעש או מפחיתים את האיכות, זה עלול להטעות זיהוי קול מבוסס AI. אותו דבר לגבי זיהוי תמונות AI.
הסבריות היא בעיה נוספת גדולה. רבים מכלי ה-AI נותנים הערכת ביטחון כמה הם בטוחים שהתוכן נוצר על ידי AI, אך הם בדרך כלל לא מסבירים את הנימוקים או מדוע הם חושבים כך.
חשוב להבין שזהו עדיין שלב מוקדם בזיהוי AI, במיוחד באוטומטי. דוגמה טובה נראית בניסיונות האחרונים לזיהוי deepfakes. הזוכה באתגר זיהוי Deepfake של Meta זיהה ארבעה מתוך חמישה deepfakes. עם זאת, המודל אומן על אותם נתונים שבדקו אותו על – כמו לראות את התשובות לפני המבחן. כשבדקו אותו על תוכן חדש, שיעור ההצלחה ירד, והוא זיהה רק שלושה מתוך חמישה deepfakes במאגר הנתונים החדש.
כל זה אומר שכלי זיהוי AI יכולים וגם טועים. הם עלולים לגרום לתוצאות שווא חיוביות (לטעון שתוכן נוצר על ידי AI כשהוא לא) ולשווא שליליות (לטעון שהוא נוצר על ידי בני אדם כשהוא לא). למי שמעורב, הטעויות הללו יכולות להיות הרסניות – כמו סטודנט שמסת של מאמרו כנוצר על ידי AI כשהוא כתב אותו בעצמו, או מישהו שמאמין בטעות שאימייל שנכתב על ידי AI נכתב על ידי בן אדם אמיתי.
זהו מרוץ חימוש כשטכנולוגיות חדשות מתפתחות או משתפרות, וכלי הזיהוי מתקשים לעמוד בקצב.
לאן מכאן?
הסתמכות על כלי יחיד היא בעייתית ו מסוכנת. בדרך כלל זה יותר בטוח ומעולה להשתמש בשיטות מגוונות כדי להעריך את אותנטיות התוכן. ניתן לעשות זאת על ידי חציית מקורות ובדיקת עובדות כפולה בתוכן כתוב. לגבי תוכן ויזואלי, ניתן להשוות תמונות חשודות לאחרות שצולמו באותו זמן או מקום. ניתן גם לבקש ראיות נוספות או הסבר אם משהו נראה או נשמע חשוד.
אבל בסופו של דבר, יחסי אמון עם אנשים ומוסדות יישארו אחד הגורמים החשובים ביותר כשכלי זיהוי נכשלים או כשאין אפשרויות אחרות. ככל שהשימוש ב-AI גובר בתעשיות שונות, חוקרים גלובליים ממשיכים להעריך את היעילות של כלים אלה, ומדגישים את הצורך בגישה כוללת יותר.
המאמר הזה מבוסס על ניתוח של מומחים מהתחום, ומדגיש את האתגרים בשלב זה המוקדם של הטכנולוגיה. בעוד שה-AI משנה את הנוף הדיגיטלי, כלי הזיהוי חייבים להתפתח כדי להתאים. עבור חובבי טכנולוגיה בישראל, שבה AI משולב יותר ויותר במגזר ההייטק, הבנת המגבלות הללו חיונית כדי לשמור על אמינות המידע. כיצד זה משפיע על פיתוח תוכנה מקומי? אולי בעתיד נראה פתרונות ישראליים חדשניים לבעיה זו. עם זאת, כרגע, זהירות היא המפתח.
(המאמר מבוסס על כתבה מ-The Conversation, שפורסמה מחדש תחת רישיון Creative Commons.)