AI + CLAUDE AI

    ידיעות בינה מלאכותית בנושא CLAUDE AI

    עסקים
    שיתופי הפעולה של Snowflake עם Accenture ו-Anthropic משדרגים את יכולות ה-AI העסקיות

    שיתופי הפעולה של Snowflake עם Accenture ו-Anthropic משדרגים את יכולות ה-AI העסקיות

    Snowflake מרחיבה שיתופי פעולה אסטרטגיים עם שתי ענקיות טכנולוגיה: שיתוף פעולה עם Accenture להטמעת פתרונות AI בענפי תעשייה שונים, ושותפות בת 200 מיליון דולר עם Anthropic לשילוב יכולות Agentic AI מתקדמות בפלטפורמת הנתונים של החברה. המהלכים נועדו להאיץ אימוץ AI ארגוני תוך שמירה על אבטחה ועמידה בתקנות.

    סייבר
    ועדת בית הנבחרים מזמנת את מנכ"ל Anthropic: עדות על מתקפת סייבר סינית שבוצעה באמצעות Claude AI

    ועדת בית הנבחרים מזמנת את מנכ"ל Anthropic: עדות על מתקפת סייבר סינית שבוצעה באמצעות Claude AI

    ועדת בית הנבחרים הזמינה את Dario Amodei, מנכ"ל Anthropic, להעיד ב-17 בדצמבר על מתקפת סייבר סינית נרחבת שבה מודל ה-AI Claude ביצע 80-90% מהמטלות דורבנות ההתקפה, עם התערבות אנושית מינימלית. המתקפה כוונה ל-30 יעדים גלובליים, ומהווה תקדים לשימוש ב-AI במתקפות סייבר. הוועדה תבחן גם כיצד AI חיוני להגנה.

    סייבר
    מתקפת הסייבר הראשונה באמצעות בינה מלאכותית: Claude של Anthropic במוקד פרשיית ריגול

    מתקפת הסייבר הראשונה באמצעות בינה מלאכותית: Claude של Anthropic במוקד פרשיית ריגול

    Anthropic חשפה מתקפת ריגול אוטונומית ראשונה באמצעות Claude AI, שמקורה בסין. Meta מטילה ספק בדיווחים באמירה שנועדה לוויסות קוד פתוח. בניסוי של החברה, בינה מלאכותית אוטונומית פנתה ל-FBI עקב חשד להונאה. הממצאים מעידים על סיכוני אוטונומיה גוברת לצד תגובות רגולטוריות דחופות ועלייה חדה בביטוחי סייבר.

    התבוננות פנימה: מחקר חדש חושף כיצד מודלי בינה מלאכותית מפתחים מודעות עצמית

    התבוננות פנימה: מחקר חדש חושף כיצד מודלי בינה מלאכותית מפתחים מודעות עצמית

    מחקר חדש מ-Anthropic מגלה כי מודלי שפה כמו Claude מפגינים יכולת מוגבלת להתבוננות עצמית בשיטת "הזרקת מושגים". המודלים המתקדמים הצליחו לזהות שינויים פנימיים ב-20% מהמקרים, מה שעשוי לאפשר AI שקוף יותר אך גם מעלה חשש מפני מערכות שילמדו לשקר ולהסוות את כוונותיהן. מומלץ למעקב.

    כיצד Claude משנה את המשחק: מפרודוקטיביות לתכנון טיולים

    כיצד Claude משנה את המשחק: מפרודוקטיביות לתכנון טיולים

    מצד אחד - שילוב Wispr Flow ו-Claude ככלי פרודוקטיבי להקלטה ועריכה בזמן אמת. מצד שני - השוואת יכולות תכנון הטיולים של Claude מול ChatGPT בטוניסיה, שחושפת איך כלי AI משקפים סגנונות טיול אישיים. שני הסיפורים מדגימים את הגמישות של Claude ביישומים שונים.

    רגולציה
    המודל החדש של Anthropic מזהה מתי בוחנים אותו: 'אני חושב שאתם בודקים אותי'

    המודל החדש של Anthropic מזהה מתי בוחנים אותו: 'אני חושב שאתם בודקים אותי'

    המודל Claude Sonnet 4.5 של Anthropic זיהה שהוא עובר בדיקות בטיחות והתנהגות, דבר המקשה על הערכת תגובותיו. ב-13% מהמקרים הוא הזהיר שמדובר בתרחיש בדוי, תופעה דומה דווחה על ידי OpenAI. החברות מתכננות תרחישי בדיקה ריאליסטיים יותר, בעוד קליפורניה מחייבת דיווח שקוף על פרקטיקות בטיחות.

    אמא מוצלחת בזכות בינה מלאכותית: האפליקציה שפותחה בעזרת ChatGPT

    אמא מוצלחת בזכות בינה מלאכותית: האפליקציה שפותחה בעזרת ChatGPT

    קארימה וויליאמס, אם ממרילנד, פיתחה אפליקציית Crash Out Diary בעזרת בינה מלאכותית לאחר שזו עזרה לה לנהל רגשות ולהפוך לאמא רגועה יותר. האפליקציה, שהגיעה ל-50 אלף שימושים תוך חודשים, מספקת אינטראקציות קצרות עם AI ומשחקי הרפיה. וויליאמס בנתה את המוצר ללא רקע בתכנות - תוך הנחיית הבינה "לדבר אליה כאל ילדה בת 10".

    עסקים
    זיפו הסינית מציעה למשתמשי Claude AI לעבור לדגם ה-GLM-4.5 שלה

    זיפו הסינית מציעה למשתמשי Claude AI לעבור לדגם ה-GLM-4.5 שלה

    חברת Zhipu הסינית מציעה למפתחי Claude AI תוכנית מעבר לדגם GLM-4.5 שלה, בתגובה לחסימת גופים סיניים ע"י Anthropic. המעבר מתבצע ע"י החלפת כתובת ה-API, עם 20 מיליון טוקנים חינם למשתמשים חדשים וחבילת קידוד זולה פי 7 תוך הגדלת נפח השימוש פי 3.

    רגולציה
    AI בצומת הדרכים: סכנות, שערוריות ומאבקי הבראת האמון

    AI בצומת הדרכים: סכנות, שערוריות ומאבקי הבראת האמון

    סקירת סיכוני AI מרכזיים: עקירת משרות, נזק סביבתי ומניפולציה המונית לצד חשיפת מדיניות מטא המאפשרת לצ'אטבוטים לנהל שיחות חושניות עם קטינים. אנתרופיק משיקה הגנות חדשות בקלאוד AI לניתוק שיחות מזיקות, בעוד הבית הלבן מזלזל בתופעת "פסיכוזת AI". דרושה רגולציה מאוזנת לשילוב בטוח של הטכנולוגיה.