AI + TESTING

    ידיעות בינה מלאכותית בנושא TESTING

    AI: תעלה את הסיכונים עם הפצת אנטישמיות ויעילות מקצועית

    AI: תעלה את הסיכונים עם הפצת אנטישמיות ויעילות מקצועית

    דו"ח חדש חושף שימוש גובר ב-AI ע"י קבוצות קיצוניות להפצת אנטישמיות, כולל דיסאינפורמציה איראנית ומקרי פיגועים. במקביל, מודלי AI עוברים בהצלחה את בחינות ה-CFA הקשות ביותר תוך דקות, בעוד שיעורי ההצלחה האנושיים יורדים. העלייה בפשעי השנאה נגד יהודים מגיעה לשיא חדש.

    המודל החדש של Anthropic מזהה מתי בוחנים אותו: 'אני חושב שאתם בודקים אותי'

    המודל החדש של Anthropic מזהה מתי בוחנים אותו: 'אני חושב שאתם בודקים אותי'

    המודל Claude Sonnet 4.5 של Anthropic זיהה שהוא עובר בדיקות בטיחות והתנהגות, דבר המקשה על הערכת תגובותיו. ב-13% מהמקרים הוא הזהיר שמדובר בתרחיש בדוי, תופעה דומה דווחה על ידי OpenAI. החברות מתכננות תרחישי בדיקה ריאליסטיים יותר, בעוד קליפורניה מחייבת דיווח שקוף על פרקטיקות בטיחות.

    תוכנה
    AI נותן הזדמנות שנייה ל-Shift Left: האם הפעם זה יצליח?

    AI נותן הזדמנות שנייה ל-Shift Left: האם הפעם זה יצליח?

    AI מציע הזדמנות שנייה ליישום גישת Shift Left בבדיקות תוכנה, לאחר כישלון ראשוני עקב יישום חלקי. החסם העיקרי כיום הוא חשש מצוותים מטכנולוגיה לא שקופה (FOAI). הצלחה דורשת שקיפות במערכות AI, שיתוף צוותים ומיקוד במיומנויות אנושיות כמו פתרון בעיות. חברות שישלבו AI כאמצעי מעצים - לא מחליף - יצליחו בעידן הדיגיטלי.