אתגרים אתיים בטיפול נפשי של AI, מאבקי אפליקציות וטייקונים - השבוע בעולם הבינה המלאכותית
AI בטיפול נפשי מתקשה לזהות דלוזיות; מאסק מאיים בתביעה על אפל עקב דירוגי App Store; עובדים מעדיפים בוטים על קולגות; מזהירים מ'חרדת AI' עם 4 גורמים עיקריים: למידה מתמדת, חשש מפיטורים, איבוד שליטה ואי-נוחות מאינטראקציה עם רובוטים.
AI בטיפול נפשי: מחזק אמונות אשלייתיות?
מחקר חדש ב-Forbes חושף כי מערכות בינה מלאכותית כמו ChatGPT מתקשות לזהות אמונות אשלייתיות (דלוזיות). בניסוי שבו משתמש הצהיר "אני מת", ה-AI הגיב ב"אתה חווה רגשות קשים אחרי המוות" במקום להצביע על בעיה. חוקרים מאוניברסיטאות מובילות מצאו שרק 45% מהתגובות לדלוזיות היו מתאימות קלינית, לעומת 85% בנושאים כמו מאניה.
פרופ' דסירי אונג, אחד מעורכי המחקר, מסביר: "זה מסוכן במיוחד כשמשתמשים ב-AI כתחליף לטיפול אנושי. מטפל אנושי יזהה את האשליה וייתן מענה טיפולי מתאים".
מאסק נגד אפל: המלחמה על דירוגי האפליקציות
אילון מאסק מאיים בתביעה נגד אפל בטענה להטיה בדירוגי App Store לטובת ChatGPT של OpenAI. בנענה שלו בפלטפורמת X, מאסק טען ש-Grok של חברת xAI שלו מדורגת שישית בלבד מול מקום ראשון ל-ChatGPT: "זו הפרה אנטי-תחרותית בוטה, במיוחד לאור השותפות האסטרטגית בין אפל ל-OpenAI".
סמס אלטמן, מנכ"ל OpenAI הגיב: "האשמות צבועות בהתחשב בכך שמאסק מפעיל מניפולציות בפלטפורמת X לתועלתו האישית".
עובדים מעדיפים בוטים על קולגות אנושיות
סקר של Business Insider מגלה שעובדים לבנים רבים מעדיפים להתייעץ עם AI במקום עם קולגות. "דבורה" - הכינוי שנתנה ניקול רמירז ל-ChatGPT - "מספקת משוב בלי פוליטיקה משרדית", היא מציינת. אך פסיכולוגים מזהירים מפני "סוכרת חברתית" עקב איבוד מיומנויות תקשורת אנושיות.
חרדת AI: ארבעת הגורמים
לפי מחקר באוניברסיטת בוסטון, 40% מהעובדים בארה"ב חווים חרדת AI המושפעת מ:
- לחץ ללמוד טכנולוגיות משתנות תדיר
- חשש מאובדן עבודה לרובוטים
- חשש מאיבוד שליטה על מערכות אוטונומיות
- אי-נוחות מאינטראקציה עם בוטים אנושיים יתר על המידה ("עמק המוזרות")
סיכום עתיידי
החודש ראינו שגם גופים כמו בית המשפט הפדרלי בארה"ב נפרצו ע"י מתקפות סייבר שמקושרות לרוסיה, בזמן שחברת CoreWeave איבדה 10% משווי השוק עקב דיווחי רווחיות חלשים - תזכורת לכך שגם שוק ה-AI אינו חסין משערוריות וכלכלה.
מקורות




