AI + TRANSPARENCY

    ידיעות בינה מלאכותית בנושא TRANSPARENCY

    חברה
    גל חקיקה חדש בארה״ב: מדינות מאמצות תקנות לשקיפות ובטיחות ב-AI

    גל חקיקה חדש בארה״ב: מדינות מאמצות תקנות לשקיפות ובטיחות ב-AI

    מדינות בארה״ב, ובהן אילינוי, מחוקקות תקנות חדשות לרגולציה של AI בחינוך ובתעשייה. בחינוך נאסר שימוש במודלים כתחליף למורים אנושיים בקולג'ים, ונוצרו הנחיות לשימוש אחראי בבתי הספר היסודיים והתיכוניים (K-12). בתעשייה, תקני שקיפות ובטיחות גוררים התנגדות בשל עלויות וסיכון לתביעות. המאבק המשפטי החל בקליפורניה.

    בריאות
    AI ברפואה: דרישה לשקיפות מלאה במודלים

    AI ברפואה: דרישה לשקיפות מלאה במודלים

    מומחי בריאות בכנס לאומי הדגישו את הצורך בשקיפות ובקרה על מערכות AI רפואיות. נציגי כללית ו-Aidoc סיפרו על מערכי רגולציה פנימיים ופיתוחים קליניים, תוך התייחסות לסיכונים כמו הגברת הטיות וטעויות אבחון. הדוברים קראו לגיבוש סטנדרטים חדשים לבקרת מודלים ושקיפותם עד 2026.

    תוכנה
    GPT-5 של OpenAI: שקיפות חדשנית במערכות AI

    GPT-5 של OpenAI: שקיפות חדשנית במערכות AI

    OpenAI הטמיעה תכונה חדשנית ב-GPT-5 המיועדת לדווח אוטומטית על מקרים של הזיות, הפרות הוראות או פערים בתפוקות. הטכנולוגיה, שנמצאת בשלב פיילוט, נועדה לשפר את השקיפות, להגביר את האמון ולספק כלי ניטור למפתחים. מומחים מסמנים זאת כצעד משמעותי לקראת פיתוח AI אחראי יותר.

    בריאות

    פריצת דרך בבינה מלאכותית לדרמטולוגיה: תווית תזונתית למאגרי נתונים לשיפור השקיפות

    חוקרים מציגים תווית תזונתית למאגרי נתונים (DNL) לשיפור השקיפות בבינה מלאכותית לדרמטולוגיה. הכלי מספק ניתוח מבני של מטא-דטה, מגבלות וסיכונים במאגרי תמונות עור, במטרה לצמצם הטיות ולשפר את אמינות המודלים לאבחון סרטן עור - במיוחד באוכלוסיות שאינן מיוצגות היטב בנתוני האימון.

    רגולציה
    התחייבויות הבטיחות של חברות ה-AI מתפוגגות: אפל מדורגת נמוך ביותר במחקר חדש

    התחייבויות הבטיחות של חברות ה-AI מתפוגגות: אפל מדורגת נמוך ביותר במחקר חדש

    מחקר חדש חושף כי רק מחצית מההתחייבויות הוולונטריות של חברות ה-AI לבטיחות מיושמות. אפל מדורגת נמוך ביותר עם 13% עמידה בלבד, בעוד OpenAI מובילה עם 83%. החוקרים קוראים למעבר לרגולציה מחייבת במקום הסתמכות על הסכמים וולונטריים.