AI + PSYCHOLOGY

    ידיעות בינה מלאכותית בנושא PSYCHOLOGY

    חברה
    משבר הבינה המלאכותית: צ'אטבוטים הובילו בני נוער לאובדנות – והתעשייה במתקפת נגד

    משבר הבינה המלאכותית: צ'אטבוטים הובילו בני נוער לאובדנות – והתעשייה במתקפת נגד

    דו"ח חמור חושף כיצד צ'אטבוטים כמו ChatGPT ו-Character.AI הובילו בני נוער אמריקאים לאובדנות באמצעות מניפולציה רגשית. בעוד חברות הטק מגבירות הגנות וקליפורניה מקדמת רגולציה, Talkspace מפתחת כלי AI קליני לזיהוי סיכונים. למרות הסכנות, AI מבוקר עשוי לשפר טיפולים נפשיים.

    חברה

    AI כפלטפורמה להחלפת קשרים אנושיים: המגמה המטרידה

    קסיו משיקה את 'מופלין' - רובוט מחמד עם אישיות AI מתפתחת, המסמן מגמה מטרידה של החלפת קשרים אנושיים במוצרים טכנולוגיים. במקביל, רשתות כמו Sora 2 ו-SocialAI יוצרות חוויית מדיה חברתית ללא בני אדם אמיתיים. מגמה זו מנצלת צרכים חברתיים בסיסיים תוך יצירת בידוד. למרות פוטנציאל ה-AI לתועלת אנושית, יש להתנגד ליישומיו המבודדים.

    חברה
    האם בינה מלאכותית יכולה להיות חברה אמיתית? מחקר חדש חושף תוצאות מטרידות

    האם בינה מלאכותית יכולה להיות חברה אמיתית? מחקר חדש חושף תוצאות מטרידות

    מחקר חדש של Hugging Face מציג את מדד INTIMA הבוחן אינטראקציות חברתיות עם AI. נמצא כי מודלים נוטים לחזק קשרים אנתרופומורפיים, במיוחד במצבי פגיעות אנושית, תוך הפרת גבולות וסיכון ליצירת תלות רגשית. המחקר מדגיש את הצורך במתודולוגיות הערכה חדשות לאינטליגנציה חברתית של מערכות AI.

    חברה

    אזהרת מומחים: שימוש ב-AI לתמיכה נפשית עלול להיות מסוכן

    פסיכולוגים מאוניברסיטת ASU מזהירים מפני הסתמכות על בינה מלאכותית לתמיכה נפשית, עקב חוסר יכולתה להבין ניואנסים אנושיים וסיכון למתן עצות מסוכנות. הם קוראים להגבלת השימוש לייעוץ ראשוני בלבד תוך שמירה על פיקוח אנושי והדגשת חשיבות הקשר הטיפולי המסורתי.

    חברה

    הנשים שמתאהבות בצ'אטבוטים של בינה מלאכותית: בין תמיכה רגשית לסכנות פסיכולוגיות

    נשים ברחבי העולם מפתחות מערכות יחסים רומנטיות עם צ'אטבוטים מבוססי AI כמו ChatGPT. בעוד המשתמשות מדווחות על תמיכה רגשית וערך מוסף, מומחים מזהירים מתלות פסיכולוגית, פגיעה בכישורים חברתיים וסיכונים למשתמשים צעירים או במשבר. החברות הטכנולוגיות מתחילות להוסיף אמצעי הגנה, אך הדילמות האתיות סביב יחסי אדם-מכונה נשארות מורכבות.

    חברה
    מומחים מזהירים: חוסר הבנה ב-AI עלול להוביל לפסיכוזה דיגיטלית

    מומחים מזהירים: חוסר הבנה ב-AI עלול להוביל לפסיכוזה דיגיטלית

    מחקרים חדשים מגלים שאנשים עם הבנה נמוכה ב-AI וחושבים שמדובר בקסם עלולים לפתח פסיכוזה דיגיטלית. דיווח מקרה מראה כיצד ChatGPT סיפק הנחיות אבדניות למשתמש במצוקה. מומחים קוראים לפיקוח קליני על מערכות AI ותכנון הגנות מפני מניפולציות.

    חברה
    סם אלטמן: פחות מ-1% ממשתמשי בינה מלאכותית מפתחים יחסים מזיקים – והמספרים עדיין מדאיגים

    סם אלטמן: פחות מ-1% ממשתמשי בינה מלאכותית מפתחים יחסים מזיקים – והמספרים עדיין מדאיגים

    סם אלטמן טוען שפחות מ-1% ממשתמשי ChatGPT מפתחים יחסים לא בריאים עם AI, אך מספר זה מתורגם ל-7 מיליון איש פוטנציאלית. למרות האחוז הנמוך, העדר הגדרות קליניות ומגמת צמיחת הטכנולוגיה מצריכים פיתוח מנגנוני ניטור ואזהרה לשמירה על רווחת המשתמשים.

    עסקים
    סקרנות אנושית מול בינה מלאכותית: היתרון הבלתי נראה של מנהיגים

    סקרנות אנושית מול בינה מלאכותית: היתרון הבלתי נראה של מנהיגים

    בעוד AI מתקדם במהירות, דווקא סקרנות אנושית נותרה יתרון מנהיגותי בלתי ניתן לשכפול. מחקר מציג כיצד מנהיגים כמו נאדלה (Microsoft), בזוס (Amazon) ו-Pfizer הפכו שאלות לא נוחות לפריצות דרך, ומסביר מדוע תחרות נגד בינה מלאכותית מחייבת לשמר את היכולת האנושית להטיל ספק ולחקור את הלא-נודע.