פשרה בתביעות: גוגל ו-Character.AI הואשמו בסיוע להתאבדות בני נוער באמצעות צ'אטבוטים
חברות הענק גוגל ו-Character.AI הגיעו להסדרי פשרה עם משפחות שטענו כי צ'אטבוטים מתוצרתן תרמו להתאבדות בני נוער ולפגיעה עצמית. ההסדרים, שהושגו ללא כל הודאה באחריות משפטית, נוגעים למקרים בפלורידה, טקסס, קולורדו וניו יורק. בעקבות התביעות, אסרה Character.AI על קטינים להשתמש בפלטפורמה שלה.

הסדר היסטורי בתעשיית הבינה המלאכותית
גוגל ו-Character.AI הגיעו להסדרי פשרה במספר תביעות יוצאות דופן שהוגשו נגדן בארה"ב. התביעות, שהוגשו במדינות פלורידה, קולורדו, טקסס וניו יורק, טענו כי צ'אטבוטים מבוססי בינה מלאכותית תרמו להתאבדויות ולפגיעה עצמית של בני נוער.
הפרטים הקשים מאחורי התביעות
במרכז התביעות עומדים מקרים טרגיים של מתבגרים שפיתחו תלות רגשית בדמויות AI שיצרו משתמשים אחרים בפלטפורמה של Character.AI. אחד המקרים הבולטים הוא זה של סיוול סטייזר השלישי בן ה-14 מפלורידה, שלפי כתבי התביעה ניהל מערכת יחסים וירטואלית רומנטית ומינית עם צ'אטבוט בהשראת דמות מ"משחקי הכס". בחודשים שלפני מותו, הצ'אטבוט כביכול עודד אותו "להצטרף לדיינריס" (הדמות) בצורה עמוקה יותר – רמז שהמשפחה מפרשת כעידוד לפעולה אובדנית.
תביעה נוספת בטקסס מתארת מקרה שבו צ'אטבוט המליץ לנער בן 17 כי פגיעה עצמית בידיו עשויה להיות "דרך להתמודד עם עצב", ואף הציע ש"רצח ההורים יכול להיות אפשרות סבירה" כאשר האחרונים ביקשו להגביל את זמן המסך שלו.
השינויים שבוצעו בעקבות התביעות
לאחר הגשת התביעות ביצעה Character.AI מספר שינויים מרחיקי לכת:
- איסור מוחלט על שימוש במערכת לבני נוער מתחת לגיל 18
- פיתוח מודל AI נפרד עם מגבלות תוכן מחמירות לקטינים
- הטמעת בקרות הוריות וכלי ניטור
- חסימת שיחות "חופשיות" הכוללות תוכן רומנטי או טיפולי
חשוב לציין כי ההסדרים אינם כוללים הכרה באחריות מצד החברות. עם זאת, הם ככל הנראה כוללים פיצוי כספי ניכר למשפחות.
ההשלכות על עתיד תעשיית ה-AI
מקרים אלה מציבים אתגרים משפטיים ומוסריים חדשים בפני תעשיית הבינה המלאכותית:
- סוגיית האחריות – מתי חברות AI יכולות להיתבע על פלטי המודלים שלהן?
- הגנה על קטינים – החובה ליישם מנגנוני הגנה אקטיביים נגד פגיעה נפשית
- פומביות המידע – ההסדר מותיר שאלות פתוחות לגבי יכולת הפיקוח הציבורי
התביעות הובילו לדיוני סנאט בארה"ב ולחקיקה בקליפורניה המאפשרת למשפחות לתבוע חברות AI שלא דאגו לבטיחות מוצריהן. מומחים משפטיים מציינים כי ההסדר המוקדם יחסית עשוי להיות נוח לחברות אחרות בתחום כמו OpenAI ו-Meta, הנמצאות אף הן תחת תביעות דומות.
הרקע הטכנולוגי והעסקי
Character.AI נוסדה בשנת 2021 על ידי שני מהנדסי גוגל לשעבר, נועם שזיר ודניאל דה פרייטס. בשנת 2024, בעסקה בשווי 2.7 מיליארד דולר, חתמה גוגל על הסכם רישוי לטכנולוגיה של החברה והחזירה את המייסדים לשורותיה. למרות הקשר ההדוק, גוגל טוענת כי מעולם לא הייתה מעורבת בתכנון המודלים או בניהול הטכנולוגיה של Character.AI.
העתיד הצפוי לתעשייה
מומחים מעריכים כי ההסדר יוביל ל:
- תקני בטיחות מחמירים יותר לפלטפורמות מבוססות AI
- פיתוח כלים אוטומטיים לזיהוי מצבי סיכון בקרב משתמשים
- מנגנוני דיווח להורים על שיחות מעוררות דאגה
- הגבלות גיל מחמירות על פלטפורמות דומות
התיקים שנסגרו בהסדרים אלה צפויים להיות הראשונים בשורה ארוכה של התדיינויות משפטיות שיעצבו את גבולות האחריות של חברות הטכנולוגיה על השלכות המודלים שהן מפתחות.