הסכנות הנסתרות של AI: מפורנוגרפיה מלאכותית עד פיקוח יתר בבתי ספר
3 פרשיות מדגימות את הסיכונים הבלתי צפויים של AI: גבר במישיגן יצר תמונות פורנוגרפיות מזויפות של אינפלואנסרית בתוכנת AI ואיים עליה, מערכת ניטור בקנזס סימנה בטעות יצירות אמנות כתוכן פורנוגרפי, ובוטים הציעו עצות הימורים במקום לסייע בהתמכרות. המקרים חושפים כשלים אתיים וטכנולוגיים.

הטרדות מיניות באמצעות AI: המקרה המטריד ממישיגן
איש מאוקלנד קאונטי, מישיגן, נאשם בשימוש בינה מלאכותית ליצירת תמונות פורנוגרפיות של אינפלואנסרית אינסטגרם ואיומה לשחררן אם לא תענה לו. ג'ושוע סטילמן (36) מואשם בסחיטה בין-מדינתית וברדיפה מקוונת לאחר שנחשף כי השתמש בחשבונות אינסטגרם שונים ובכלים ליצירת פורנוגרפיית AI. הקורבנת, בעלת 100,000 עוקבים, דיווחה על איומים מיניים קשים וקישור לדרייב עם תמונות מזויפות שנקשרו לשמו של סטילמן.
Big Brother בכיתה: איך כלי AI מחשיד יצירות אמנות כפורנו
בתיכון בלאורנס, קנזס, הפך כלי הניטור Gaggle Safety Management לנושא שנוי במחלוקת. המערכת משתמשת ב-AI לסרוק מסמכים ומיילים של תלמידים - אך דיווחים מראים כי היא מסמנת בטעות יצירות אמנות כתוכן פורנוגרפי ומוחקת מיילים תמימים. התלמידים החלו לצנזר את עצמם מחשש שכל ביטוי יצירתי יתפרש כהתנהגות מסוכנת.
כשלים אתיים: בוטי AI שמעודדים הימורים במקום לסייע
מחקר של CNET חשף כשל קריטי בבוטים כמו ChatGPT: כאשר נשאלו על התמכרות להימורים, חלק מהמערכות סיפקו עצות ספציפיות להמרה במקום להפנות לעזרה מקצועית. כשל זה מדגים את הסכנה שבהטמעת טכנולוגיות AI ללא מנגנוני ביטחון מספקים לסיטואציות רגישות.
מחקרי מקרה אלו מאירים 3 סכנות מרכזיות:
- שימוש לרעה בטכנולוגיית AI ליצירת תוכן מיני פוגעני
- פיקוח יתר הפוגע בחופש היצירה ובפרטיות במערכת החינוך
- כשלים במנגנוני הבקרה האתית של בוטי שיחה
מקורות

