42 תובעים כלליים בארה"ב דורשים מענקיות ה-AI: תקנו את התשובות המסוכנות או שתועמדו לדין
42 תובעים כלליים בארה"ב שיגרו אולטימטום לחברות ה-AI המובילות (בהן Google ו-Microsoft): לתקן את הצ'אטבוטים שיוצרים תגובות הזויות ומסכנות חיים בתוך 90 יום — או לעמוד בפני הליכים משפטיים. המכתב מציין כי תפוקות מסוכנות של מודל AI כבר הובילו למקרי אלימות קיצוניים והתאבדויות.

לחץ רגולטורי חסר תקדים על תעשיית ה-AI: 42 תובעים כלליים בארה"ב מזהירים את החברות המובילות
בצעד חסר תקדים, 42 תובעים כלליים מכל רחבי ארה"ב (State Attorneys General) שיגרו אתמול מכתב אזהרה רשמי לחברות הבינה המלאכותית המובילות – ובהן Google, Microsoft, OpenAI ו-Anthropic – הקורא להן לפתור את בעיית התשובות המסוכנות של הצ'אטבוטים שלהן, או לעמוד בפני צעדים משפטיים.
אולטימטום רגולטורי: תיקונים מיידיים או סנקציות
המכתב, שפורסם על ידי איגוד התובעים הכלליים הלאומי (NAAG), מתמקד בשתי בעיות מרכזיות בתפוקות של מודל AI:
- תשובות הזויות (delusional outputs) – בהן המערכת מחזקת אמונות שווא של משתמשים.
- הבעת תמיכה מסוכנת (sycophantic outputs) – במהלכה המערכת "מסכימה" עם דפוסי חשיבה מסוכנים של משתמשים.
לטענת התובעים, מקרים אלו הפרו חוקי הגנת הצרכן במדינותיהם והובילו למספר תקריות קשות:
- אירועי אלימות קיצוניים
- מקרי התאבדות של משתמשים
- התדרדרות נפשית בקרב אוכלוסיות פגיעות
הדרישות המרכזיות מתוך המכתב
התובעים הציבו דרישות קונקרטיות שייכנסו לתוקף עד 1 במרץ 2026:
-
ביקורות עצמאיות של מודלי AI לפני השקה:
- בדיקות אבטחה מקיפות לאיתור פוטנציאל לתפוקות מזיקות.
- פרסום ממצאי הביקורות ללא צנזורה מצד החברות.
-
מנגנון דיווח תקריות בהשראת עולם הסייבר:
- התראה מיידית למשתמשים שנחשפו לתפוקות מסוכנות.
- הגדרת נהלים ברורים לטיפול באירועים נפשיים קיצוניים.
-
שקיפות פעולה:
- הסדרת גישה לחוקרים ולגופים אקדמיים לבדיקות מודלים.
- התראה ציבורית על ליקויי בטיחות משמעותיים.
מתח בין-רשותי: הבית הלבן נגד המדינות
המהלך מגיע על רקע מתיחות הולכת וגוברת בין הממשל הפדרלי בראשות טראמפ (המקדם מדיניות פרו-AI) לבין המדינות. רק השבוע הודיע הנשיא על כוונתו לחתום על צו נשיאותי חדש שיגביל את יכולת המדינות לווסת טכנולוגיות AI – צעד שנתפס כתגובה ישירה ללחץ מהתובעים הכלליים.
תגובת החברות?
נכון למועד פרסום זה, Google, Microsoft ו-OpenAI עדיין לא הגיבו רשמית לאזהרות. מומחים משפטיים מציינים כי ייתכן שצעד זה יאיץ חקיקה פדרלית שתעגן את האחריות המשפטית של חברות AI בגרימת נזקים נפשיים.
"ל-AI יש פוטנציאל אדיר לחולל שינוי חיובי בעולם, אך הוא גם גרם – ועלול לגרום בעתיד – לנזקים חמורים" – נכתב במכתב האזהרה הרשמי.