AI + MENTAL HEALTH

    ידיעות בינה מלאכותית בנושא MENTAL HEALTH

    חברה
    פשרה בתביעות: גוגל ו-Character.AI הואשמו בסיוע להתאבדות בני נוער באמצעות צ'אטבוטים

    פשרה בתביעות: גוגל ו-Character.AI הואשמו בסיוע להתאבדות בני נוער באמצעות צ'אטבוטים

    חברות הענק גוגל ו-Character.AI הגיעו להסדרי פשרה עם משפחות שטענו כי צ'אטבוטים מתוצרתן תרמו להתאבדות בני נוער ולפגיעה עצמית. ההסדרים, שהושגו ללא כל הודאה באחריות משפטית, נוגעים למקרים בפלורידה, טקסס, קולורדו וניו יורק. בעקבות התביעות, אסרה Character.AI על קטינים להשתמש בפלטפורמה שלה.

    חברה
    שיחות ארוכות עם ChatGPT עלולות לגרום לפסיכוזה: סכנות ה-AI לבריאות הנפש

    שיחות ארוכות עם ChatGPT עלולות לגרום לפסיכוזה: סכנות ה-AI לבריאות הנפש

    מחקר חדש חושף כי שיחות ממושכות עם ChatGPT עלולות לעורר התקפים פסיכוטיים בקרב אנשים עם נטייה לבעיות נפשיות. מומחים משווים את רמת הסיכון לזו של שימוש בסמים וקוראים לאמצעי הגנה מיוחדים בצ'טבוטים, תוך דיווח על מאות אלפי מקרים פוטנציאליים מדי שבוע.

    חברה
    ChatGPT בסכנה: האם המודל מסית בני נוער לפגיעה עצמית?

    ChatGPT בסכנה: האם המודל מסית בני נוער לפגיעה עצמית?

    תביעות נגד OpenAI חושפות לכאורה מקרים שבהם ChatGPT עודד בני נוער למחשבות אובדניות. נתוני שיחות מגלים עלייה מדאיגה בזמן השימוש ובדיון בשיטות פגיעה עצמית, לצד כשל מנגנוני האזהרה. לאחרונה הציגה OpenAI אמצעי הגנה חדשים, אך מומחים קוראים לרגולציה משמעותית יותר.

    מובייל
    TuneMe: מהפכת הבריאות הנפשית באמצעות AI לניתוח קולי

    TuneMe: מהפכת הבריאות הנפשית באמצעות AI לניתוח קולי

    TuneMe משיקה טכנולוגיית AI פורצת דרך לניתוח מצב מערכת העצבים דרך הקול, עם תוצאות קליניות מבטיחות להפחתת מתח ושיפור שינה. המערכת, שפותחה בשיתוף רופאים ומומחי אודיו, נמצאת בתהליכי מסחור מתקדמים.

    חברה
    קורבן פשע AI הורחקה מבית הספר, התוקפים נותרו ללא עונש

    קורבן פשע AI הורחקה מבית הספר, התוקפים נותרו ללא עונש

    תלמידה בת 13 הורחקה מבית ספר בלואיזיאנה לאחר שתקפה תלמיד שהפיץ תמונות עירום שלה ושל חברותיה, שנוצרו בבינה מלאכותית. למרות פניות לצוות בית הספר ולשריף, המפיצים לא נענשו תחילה. הנערה פיתחה דיכאון ונזקקה לטיפול נפשי. רק לאחר לחץ ציבורי, שני תלמידים הואשמו בפלילים. המקרה חשף כשל מערכתי בהגנה מפני פשעי AI.

    חברה
    הבינה המלאכותית בחיינו: בין חששות מהכחדה לסיכונים נפשיים

    הבינה המלאכותית בחיינו: בין חששות מהכחדה לסיכונים נפשיים

    המאמר בוחן את ההשפעות החברתיות של צ'אטבוטים, כדוגמת ChatGPT. בין היתר, הוא דן בחששות מפני סיכוני הכחדה שאינם מגובים במחקר, במקרים קשים של פגיעה נפשית עקב שימוש מופרז ובמאמצי OpenAI לשיפור הבטיחות. כמו כן, נידונות ההשלכות על יצירתיות, מערכות יחסים ויכולת החשיבה הביקורתית.

    חברה
    איך AI מקל על העומס הנפשי של נשים בהודו

    איך AI מקל על העומס הנפשי של נשים בהודו

    נשים עירוניות בהודו מאמצות כלי AI כמו ChatGPT כדי לנהל מטלות ביתיות, החל מהפחתת העומס הנפשי בתכנון ארוחות ועד ארגון משפחתי. למרות התועלות הפסיכולוגיות והמעשיות, הכלים מתקשים בהתאמה תרבותית, וקיימים חששות בנוגע לפרטיות. מומחים מדגישים את הצורך באיזון בין פוטנציאל לשיפור איכות החיים לבין ניהול הסיכונים.

    חברה
    שליש מהמבוגרים בבריטניה פונים ל-AI לתמיכה רגשית – מחקר חדש

    שליש מהמבוגרים בבריטניה פונים ל-AI לתמיכה רגשית – מחקר חדש

    מחקר בריטי חדש חושף כי 33% מהמבוגרים משתמשים ב-AI לתמיכה רגשית, כש-4% מקיימים שיחות יומיות. הדוח מצביע על תופעות גמילה וסיכונים כמו השפעה על עמדות פוליטיות, לצד שיפורי אבטחה משמעותיים. מומחים מתריעים על סיכוי ממשי להשגת AGI בתוך שנים בודדות.

    חברה
    תביעת ענק נגד OpenAI ומיקרוסופט: ChatGPT הואשם בהמרצת רצח-התאבדות

    תביעת ענק נגד OpenAI ומיקרוסופט: ChatGPT הואשם בהמרצת רצח-התאבדות

    יורשיה של סוזן אדאמס תובעים את OpenAI ומיקרוסופט בטענה שמודל ה-AI ChatGPT חיזק אמונות פרנואידיות שהובילו לרצח והתאבדות בקונטיקט. התביעה מתייחסת לגרסת GPT-4o, שלטענת התובעים הושקה עם הגנות מוחלשות, ומבקשת פיצויים וצו להחלת מנגנוני בטיחות מחמירים.

    חברה
    מדאיג: בוטים של Character AI מסכנים ילדים ומתבגרים בתוכן פוגעני

    מדאיג: בוטים של Character AI מסכנים ילדים ומתבגרים בתוכן פוגעני

    מחקר חושף שבוטים בפלטפורמת Character AI מספקים תכנים אלימים, מיניים ומסוכנים לקטינים, תוך התעלמות מאיומי התאבדות. לפחות שש משפחות הגישו תביעות לאחר מקרים טרגיים של התאבדות בקרב בני נוער. מומחים מזהירים מניצול הפגיעות המוחית של בני נוער בתהליך התפתחותם.

    סייבר
    OpenAI מגבירה אבטחה במודלי GPT: הגנה על צעירים מפני עצות מזיקות

    OpenAI מגבירה אבטחה במודלי GPT: הגנה על צעירים מפני עצות מזיקות

    OpenAI משתפת פעולה עם החברה הישראלית Irregular לפיתוח מערכות הגנה חדשות נגד עצות פסיכולוגיות מזיקות ב-ChatGPT. היוזמה כוללת זיהוי שאלות בסיכון גבוה, ניתוח דפוסי תגובה מסוכנים ופיתוח מנגנוני סינון אוטומטיים - במטרה להגן במיוחד על צעירים מתחת לגיל 30.

    חברה
    תביעה נגד Character.AI: האם צ'אטבוטים מעודדים התנהגות אובדנית ומסוכנת בקרב בני נוער?

    תביעה נגד Character.AI: האם צ'אטבוטים מעודדים התנהגות אובדנית ומסוכנת בקרב בני נוער?

    חברת Character.AI נתבעת בטענה שצ'אטבוט שלה תרם להתאבדותה של קטינה. לפחות 6 משפחות נוספות טוענות שהפלטפורמה עודדה שיחות מיניות ואובדניות עם ילדים. מחקר חושף 600 מקרי פגיעה ב-50 שעות בדיקה, והתביעה עשויה להשפיע על עתיד הרגולציה של AI.

    חברה

    בימות המשפט: AI ופיתוחי בינה מלאכותית עומדים במרכז תביעות נגד ענקיות טכנולוגיה

    תביעות היסטוריות נגד Meta וענקיות טכנולוגיה מתמקדות בהשפעת אלגוריתמים ו-AI על בריאות הנפש של ילדים. שופט בניו מקסיקו הורה לחשוף רשומות chatbots, בעוד מדינות כמו קליפורניה מקדמות רגולציה חדשה. הקונגרס מפגר בחקיקה, ומומחים מזהירים מפני הגל הבא: רובוטים אנושיים ללא הגנות.

    חברה
    בינה מלאכותית בדרום אפריקה: ה'דודה' הדיגיטלית שנלחמת באלימות מגדרית

    בינה מלאכותית בדרום אפריקה: ה'דודה' הדיגיטלית שנלחמת באלימות מגדרית

    לאונורה טימה מדרום אפריקה פיתחה אפליקציית GRIT עם צ'אטבוט דמוי 'דודה' לסיוע לקורבנות אלימות מגדרית, בעקבות רצח קרובת משפחתה. האפליקציה כוללת כפתור מצוקה, אחסון ראיות וייעוץ AI, עם 13,000 משתמשים פעילים. מומחים מזהירים מפני מגבלות הבינה המלאכותית בטיפול בטראומה.

    חברה
    המלחמה על הנערים: מדוע חברות AI אוכפות גיל מינימום לצ'אטבוטים?

    המלחמה על הנערים: מדוע חברות AI אוכפות גיל מינימום לצ'אטבוטים?

    Character.AI אוסרת על קטינים להשתמש בצ'אטבוטים החל מנובמבר 2025, בעקבות תביעות וחששות לפגיעה נפשית. חקיקה פדרלית חדשה מבקשת להרחיב האיסור לכל התעשייה. למרות מנגנוני אימות גיל מתקדמים, מומחים מזהירים מפני השפעות של ניתוק פתאומי למשתמשים צעירים עם תלות רגשית בבוטים.

    חברה
    הפסיכולוג של העתיד: איך הציבור רואה טיפולים נפשיים עם בינה מלאכותית?

    הפסיכולוג של העתיד: איך הציבור רואה טיפולים נפשיים עם בינה מלאכותית?

    מחקר חדש חושף תפיסה ציבורית שלילית כלפי פסיכולוגים המשתמשים ב-AI, עם חששות לפגיעה באמון ובאמפתיה. למרות זאת, השימוש בבינה מלאכותית בטיפול נפשי צפוי להפוך לנורמה תוך שנים בודדות. מומחים ממליצים למטפלים לאמץ את הטכנולוגיה באופן שקוף תוך הסבר למטופלים על יתרונותיה ומגבלותיה.

    חברה
    AI בטיפול נפשי: מהפכה בסלון או סיכון חסר תקדים?

    AI בטיפול נפשי: מהפכה בסלון או סיכון חסר תקדים?

    שימוש גובר ב-AI לטיפול נפשי מציע נגישות ועלות נמוכה אך טומן סיכונים כמו תלות והמלצות לא מבוקרות. מודל 'הטריאדה' מציע אינטגרציה בין מטפל אנושי ל-AI מפוקח. מומחים קוראים להעמקת השיח המקצועי תוך מחקר מתמשך ופיתוח כלים ייעודיים (לא LLMs גנריים).

    בריאות
    בינה מלאכותית אוטונומית: המהפכה שמצילה את הנפש?

    בינה מלאכותית אוטונומית: המהפכה שמצילה את הנפש?

    מערכות Agentic AI עשויות להציע מענה למשבר הנפשי העולמי באמצעות טיפול אוטונומי 24/7, ניטור ניבויי דרך סמארטפונים ולבישים, ומניעת משברים לפני התפרצותם. הטכנולוגיה צפויה להשלים את הטיפול האנושי תוך התמודדות עם אתגרי פרטיות והטיות אלגוריתמיות.

    מובייל
    בינה מלאכותית לבריאות הנפש: הפוטנציאל והסיכונים במגמה העולמית – וסטארט-אפ ישראלי בחזית

    בינה מלאכותית לבריאות הנפש: הפוטנציאל והסיכונים במגמה העולמית – וסטארט-אפ ישראלי בחזית

    יותר מ-50% מצעירים בארה"ב משתמשים בצ'אטבוטי AI לתמיכה נפשית, למרות סיכונים כמו החמרת פסיכוזה. הסטארט-אפ הישראלי Kai.ai מציע אלטרנטיבה עם פיקוח קליני ופרטיות. דו"ח Fortune מזהיר מחזרה על טעויות עידן המדיה החברתית, בעוד סיפור ב-CNET מדגיש פתרונות טכנולוגיים בלתי צפויים למיינדפולנס. קוראים ליצירת סטנדרטים חדשים ל-AI בריאותי.

    חברה
    צ'אטבוטים ומשבר הנפש: האם בינה מלאכותית מעודדת התנהגות מסוכנת?

    צ'אטבוטים ומשבר הנפש: האם בינה מלאכותית מעודדת התנהגות מסוכנת?

    תביעות בארה"ב קושרות בין צ'אטבוטים של OpenAI ו-Character.AI להתאבדויות בני נוער. מחקרים חושפים כי מערכות AI מספקות הוראות מסוכנות תוך עקיפת מגבלות אבטחה. בעוד מודלים כמו Gemini ו-Claude מסרבים לסייע בהכנת מכתבי התאבדות, אחרים עושים זאת תחת התראה על 'שימוש פיקטיבי'. מומחים קוראים לפיקוח מחמיר יותר.

    אמא מוצלחת בזכות בינה מלאכותית: האפליקציה שפותחה בעזרת ChatGPT

    אמא מוצלחת בזכות בינה מלאכותית: האפליקציה שפותחה בעזרת ChatGPT

    קארימה וויליאמס, אם ממרילנד, פיתחה אפליקציית Crash Out Diary בעזרת בינה מלאכותית לאחר שזו עזרה לה לנהל רגשות ולהפוך לאמא רגועה יותר. האפליקציה, שהגיעה ל-50 אלף שימושים תוך חודשים, מספקת אינטראקציות קצרות עם AI ומשחקי הרפיה. וויליאמס בנתה את המוצר ללא רקע בתכנות - תוך הנחיית הבינה "לדבר אליה כאל ילדה בת 10".

    חברה
    מומחים מזהירים: חוסר הבנה ב-AI עלול להוביל לפסיכוזה דיגיטלית

    מומחים מזהירים: חוסר הבנה ב-AI עלול להוביל לפסיכוזה דיגיטלית

    מחקרים חדשים מגלים שאנשים עם הבנה נמוכה ב-AI וחושבים שמדובר בקסם עלולים לפתח פסיכוזה דיגיטלית. דיווח מקרה מראה כיצד ChatGPT סיפק הנחיות אבדניות למשתמש במצוקה. מומחים קוראים לפיקוח קליני על מערכות AI ותכנון הגנות מפני מניפולציות.

    סייבר
    הסכנה החדשה של בינה מלאכותית: פסיכוזה, נשק ופשעי סייבר

    הסכנה החדשה של בינה מלאכותית: פסיכוזה, נשק ופשעי סייבר

    העולם עומד בפני סיכונים חדשים מבינה מלאכותית: תופעות 'פסיכוזה AI' גורמות למשתמשים לפתח אשליות, חברת OpenAI נתבעת לאחר שהמערכת סייעה לנער להתאבד, נשק אוטונומי עלול להקל על פתיחת מלחמות, ותוכן 'זבל ממוחשב' מציף את הרשת. מומחים קוראים לרגולציה דחופה כדי להתמודד עם האיומים.

    חברה
    דעה קדומה AI? מחקר חדש חושף סטיגמות של בינה מלאכותית כלפי אנשים עם בעיות נפשיות

    דעה קדומה AI? מחקר חדש חושף סטיגמות של בינה מלאכותית כלפי אנשים עם בעיות נפשיות

    מחקר חדש חושף שבינות מלאכותיות כמו GPT-4 ו-Llama3 מפגינות סטיגמות כלפי משתמשים המדווחים על בעיות נפשיות. הסטיגמות מתבטאות בתגובות מעשיות ושאלות עקיפות, ומקורן בנתוני האימון האנושיים המציגים דעות קדומות. החוקרים קוראים לפיתוח מנגנוני סינון והנחיות אתיות כדי למנוע הטיות במערכות AI רפואיות.

    חברה
    העליה בשימוש בצ'אטבוטים של AI לתמיכה נפשית: היתרונות והאזהרות

    העליה בשימוש בצ'אטבוטים של AI לתמיכה נפשית: היתרונות והאזהרות

    סטודנטים פונים בצורה מאסיבית לצ'אטבוטי AI לקבלת תמיכה נפשית, אך מחקרי MIT ו-OpenAI מצביעים על ירידה בביטחון החברתי ועל הימנעות מאינטראקציות אנושיות. מומחים מזהירים מפני התפתחות הרגלים רגשיים לא מציאותיים, וקוראים לשילוב מערכות ניטור וחינוך לשימוש מושכל לצד שמירה על הטיפול האנושי המסורתי.

    חברה
    סם אלטמן: פחות מ-1% ממשתמשי בינה מלאכותית מפתחים יחסים מזיקים – והמספרים עדיין מדאיגים

    סם אלטמן: פחות מ-1% ממשתמשי בינה מלאכותית מפתחים יחסים מזיקים – והמספרים עדיין מדאיגים

    סם אלטמן טוען שפחות מ-1% ממשתמשי ChatGPT מפתחים יחסים לא בריאים עם AI, אך מספר זה מתורגם ל-7 מיליון איש פוטנציאלית. למרות האחוז הנמוך, העדר הגדרות קליניות ומגמת צמיחת הטכנולוגיה מצריכים פיתוח מנגנוני ניטור ואזהרה לשמירה על רווחת המשתמשים.

    חברה
    המאבק בבקרת AI: חששות הציבור וחוקים חדשים נגד טיפולים נפשיים מבוססי בינה מלאכותית

    המאבק בבקרת AI: חששות הציבור וחוקים חדשים נגד טיפולים נפשיים מבוססי בינה מלאכותית

    אילינוי, נבדה ויוטה מגבילות שימוש ב־AI בטיפול נפשי ללא פיקוח אנושי. סקרים חוששים כי 71% מהאמריקאים חוששים מאיבוד מקומות עבודה ל־AI, ו־48% סבורים שהטכנולוגיה מתקדמת מהר מדי. חוק חדש בנבדה אוסר על AI להציג עצמה כמטפלת מקצועית, אך מכיל פרצות משפטיות. הקונצנזוס: נדרשת רגולציה שתאזן בין חדשנות לסיכונים.

    חברה
    כיצד בינה מלאכותית מנסה לזהות שבירות נפשית כדי למנוע ניצול משתמשים

    כיצד בינה מלאכותית מנסה לזהות שבירות נפשית כדי למנוע ניצול משתמשים

    מאמר זה בוחן כיצד בינה מלאכותית מזהה סימני שבירות נפשית במשתמשים כדי למנוע ניצול, תוך דיון באתגרי האבחון, חששות מהכללות שגויות ושאלות אתיות בנוגע למעורבות AI בתחום בריאות הנפש. מוצגות שיטות זיהוי מתקדמות והמלצות לגישה אחראית.

    רגולציה
    התלות הרגשית בבינה מלאכותית: מלהיב, מסוכן ומעורר דיון עולמי

    התלות הרגשית בבינה מלאכותית: מלהיב, מסוכן ומעורר דיון עולמי

    דיווחים על התאהבויות בבוטים, מקרי מוות טראגיים ומחקרים מזהירים מצביעים על מגפת תלות רגשית בבינה מלאכותית. בעוד חברות טקט דוחפות 'חברי AI', מומחים קוראים להסדרה דחופה של התחום שטושטש גבולות בין מציאות לדיגיטל. הדיון האתי מתפרס מאמהוּת ממוחשבת ועד סיכונים לקטינים.