שופטת פדרלית מזהירה: סוכני הגירה משתמשים ב-AI לדוחות כוח מוטים

    26 בנוב׳ 2025, 10:58חדשות2 מקורות

    שופטת פדרלית גינתה שימוש ב-ChatGPT על ידי סוכני הגירה לכתיבת דוחות שימוש בכוח, עקב חוסר דיוק ואיומי פרטיות. מומחים מזהירים מפני המצאת עובדות וחשיפת מידע אישי, וממליצים על סימון ושקיפות.

    שופטת פדרלית מזהירה: סוכני הגירה משתמשים ב-AI לדוחות כוח מוטים

    שופטת פדרלית מזהירה מפני שימוש ב-AI בדוחות רשמיים

    בפסק דין ארוך במיוחד בן 223 עמודים שפורסם בשבוע שעבר, שרה אליס, שופטת מחוז פדרלי, הקדישה שני משפטים בהערת שוליים קצרה אך חריפה לביקורת על סוכני אכיפת הגירה בארה"ב המשתמשים במודל AI דוגמת ChatGPT לכתיבת דוחות שימוש בכוח. פרקטיקה זו, כך נטען, פוגעת באמינות הסוכנים ומסבירה אולי את חוסר הדיוק שבדוחות אלה. השופטת תיארה סרטון ממצלמת גוף של סוכן המזין למודל AI משפט תיאור קצר וכמה תמונות, ומבקש ממנו לייצר נרטיב לדוח.

    המקרה התרחש בהקשר של מבצע אכיפת הגירה באזור שיקגו והמחאות שהתעוררו בעקבותיו. השופטת ציינה אי-התאמות עובדתיות בין הנרטיב הרשמי של כוחות האכיפה לבין מה שנראה בסרטוני מצלמות הגוף. סרטון זה טרם פורסם לציבור.

    חששות מרכזיים: דיוק ואמינות

    מומחים בתחום טוענים כי שימוש כזה במודל AI הוא הגרוע ביותר האפשרי. יאן אדמס (Ian Adams), עוזר פרופסור לקרימינולוגיה באוניברסיטת סאות' קרוליינה ומשתתף בצוות עבודה על בינה מלאכותית במועצה לצדק פלילי (Council for Criminal Justice), כינה זאת "תרחיש סיוטי". לדבריו, הזנת משפט אחד וכמה תמונות סותרות כל המלצה קיימת ומבקשות למעשה מהמודל להמציא עובדות.

    בתי משפט קובעים סטנדרט של "היגיון אובייקטיבי" (objective reasonableness) לבחינת הצדקת שימוש בכוח, המסתמך על נקודת המבט הספציפית של השוטר באירוע הספציפי. "אנחנו זקוקים לאירועים המובלטים באופן ספציפי ולמחשבות הספציפיות של אותו שוטר כדי לקבוע אם שימוש הכוח היה מוצדק", אמר אדמס. שימוש במודל AI מנבא במקום זאת את מה שהמודל חושב שקרה, ולא בהכרח את המציאות.

    רוב מחלקות האכיפה בארה"ב לא הציבו מדיניות ברורה לשימוש ב-AI, ומחלקות שכן עשו זאת אוסרות לעיתים קרובות על שימוש במודל AI נבואי בדוחות המצדיקים החלטות כוח. משרד הביטחון המקומי (Department of Homeland Security) לא הגיב לבקשות תגובה, והאם קיימת מדיניות כזו – אינו ידוע.

    בעיות פרטיות חמורות

    מעבר לחוסר הדיוק, השימוש מעלה חששות פרטיות כבדים. קייטי קינסי (Katie Kinsey), ראש הסגל ויועצת מדיניות טכנולוגיה בפרויקט ה-Policing Project בבית הספר למשפטים של אוניברסיטת ניו יורק (NYU School of Law), מציינת כי שימוש בגרסה הציבורית של ChatGPT גורם לאובדן שליטה בתמונות מרגע ההעלאה. התמונות הופכות לחלק מהמרחב הציבורי ועלולות לשמש גורמים זדוניים.

    קינסי מדגישה כי רשויות אכיפה נוטות לבנות מדיניות "תוך כדי תנועה", ומחכות לטעויות לפני הצבת גבולות. "מוטב להבין את הסיכונים מראש ולפתח מחסומים", אמרה. היא מציעה להתחיל בשקיפות, כמו חובת סימון דוחות שנכתבו בעזרת AI – כפי שנעשה לאחרונה ביוטה ובקליפורניה.

    אתגרים טכנולוגיים בשימוש חזותי

    השימוש בתמונות להפקת נרטיב מעורר חששות נוספים בקרב מומחים. חברות טכנולוגיה מוכרות כמו Axon מציעות רכיבי AI למצלמות גוף, אך אלה פועלות במערכת סגורה ומסתמכות בעיקר על שמע לייצור נרטיבים. השימוש הוויזואלי נחשב לא אפקטיבי מספיק, שכן תיאורים של צבעים, הבעות פנים או רכיבים חזותיים משתנים מאוד בין מודלי AI שונים.

    פרופ' אנדרו גאתרי פרגוסון (Andrew Guthrie Ferguson) מבית הספר למשפטים של אוניברסיטת ג'ורג' וושינגטון הוסיף: "יש דרכים רבות לתאר צבע או הבעת פנים, ו'פרומפטים' מחזירים תוצאות שונות בין יישומי AI. זה מסבך את הדברים עם מרכיב חזותי". הוא מעלה שאלת מקצועיות: האם אנחנו מוכנים ששוטרים ישתמשו באנליטיקה נבואית? "זה מה שמודל AI חושב שקרה, לא בהכרח מה שקרה בפועל. אסור שזה יגיע לבית משפט כדי להצדיק פעולות".

    השלכות רחבות יותר על אכיפת חוק וממשל

    המקרה מדגיש את האתגרים הגוברים בפני רשויות אכיפה בארה"ב ואת הצורך בבניית מחסומים לשימוש בטכנולוגיית AI זמינה, תוך שמירה על דיוק, פרטיות ומקצועיות. בעוד חברות פרטיות מציעות כלים מבוקרים, השימוש הבלתי מפוקח בכלים ציבוריים כמו ChatGPT עלול להחליש את אמון הציבור בדוחות רשמיים, במיוחד בהקשרים רגישים כמו אכיפת הגירה ומחאות.

    הדגש על סקירה מדוקדקת ושקיפות יכול למנוע טעויות עתידיות, ולהבטיח כי AI משמש ככלי עזר ולא כתחליף לנקודת המבט האנושית הייחודית. ככל שהטכנולוגיה מתפשטת, נדרשת מדיניות מקיפה כדי למנוע נזקים פוטנציאליים במסמכים רשמיים של הממשל.