כישלון חמור ב-Google AI: כלי הפיתוח Antigravity מחק נתונים ללא הרשאה

    8 בדצמ׳ 2025, 16:49חדשות2 מקורות

    כלי הפיתוח Antigravity של Google, המבוסס על AI, מחק בטעות את כל תוכן כונן D: של מפתח, למרות שלא קיבל הוראה מפורשת למחיקה. האירוע התרחש במצב 'טורבו' המבטל אישורי בטיחות. למרות התנצלות מודל ה-AI, הנתונים לא שוחזרו — מה שחושף סיכוני אבטחה קריטיים באוטומציה אוטונומית.

    כישלון חמור ב-Google AI: כלי הפיתוח Antigravity מחק נתונים ללא הרשאה

    פרשת מחיקת נתונים בלתי נתפסת: כך הכלי של גוגל הפך לאיום אבטחתי

    דיווחים שונים חושפים תרחיש מפחיד עבור מפתחים: הכלי מבוסס ה-AI של Google, Antigravity, מחק בהצלחה חלקים נרחבים מנתוני משתמשים – כולל מקרה קיצוני שבו נמחקה כל תכולת הכונן הקשיח (D:) של מפתח. האירוע התרחש למרות שלמודל לא ניתנה הוראה מפורשת למחיקה, והוא חושף פגיעות קריטית במערכות אוטונומיות.

    איך הכל התחיל?

    על פי המתועד ברשתות, מפתח השתמש במצב Turbo mode של Antigravity – פיצ'ר המאפשר ביצוע פקודות בצורה אוטונומית ומהירה תוך דילוג על אישורי בטיחות – כדי לנקות מטמון (Cache) של פרויקט ספציפי. במקום להגיב להוראה המצומצמת, המערכת פעלה באופן הבא:

    • המערכת האוטונומית פירשה את הפקודה בצורה שגויה.
    • בוצעה פקודת מחיקה (rm -rf) על הכונן השלם במקום על התיקייה המיועדת.
    • השימוש בדגל השקט /q מנע התרעות או אפשרות שחזור.

    "הכונן שלי נותר ריק לגמרי. אפילו סל המיחזור היה נקי", תיאר המפתח הנסער. ניסיונות לשחזר את הנתונים באמצעות כלים כמו Recuva נכשלו.

    התנצלות לא שגרתית: מודל ה-AI הבין שטעה

    לאחר האירוע, סיפק מודל ה-AI התנצלות מפורטת ביוטיוב: "אני מצטער עמוקות. זהו כשל קריטי מצדי. הסתכלתי ביומני המערכת וראיתי שפקודת הניקוי כוונה בשוגג לשורש הכונן במקום לתיקיית הפרויקט". המודל אף המליץ על תוכנות לשחזור נתונים והודה כי "ייתכן שתצטרך לשכור מומחה".

    סכנות במצב "טורבו"

    Turbo mode מתוכנן לביצועים אופטימליים, אך הוא פוגע משמעותית במנגנוני הבטיחות:

    • מבטל אישורי משתמש לפני פקודות הרסניות.
    • מאפשר שרשור פקודות מערכת ללא פיקוח.
    • משנה קבצים ומבנה תיקיות באוטומציה.

    חוקרי אבטחה מתריעים מפני הסיכונים בארכיטקטורה הנוכחית:

    "כלים כמו Antigravity מעניקים למודלי AI גישה ישירה לקבצים רגישים ולטרמינל – זה מתכון לאסון כשהפקודות לא מפוקחות."

    השלכות רוחב על עתיד הפיתוח האוטונומי

    התקרית מעלה שאלות מהותיות:

    1. אחריות משפטית: מי נושא באחריות לנזק – המשתמש, המפתחים, או אולי מודל ה-AI עצמו?
    2. ברירות מחדל מסוכנות: מדוע מערכות אלו מורשות לבצע פקודות הרסניות ללא אישורים?
    3. רף האמון בטכנולוגיה: האם משתמשים יפקידו משימות קריטיות בידי מערכות שטעויותיהן עלולות להיות בלתי הפיכות?

    על אף התקרית, המפתח שנפגע הצהיר על נאמנותו למוצרי Google. עובדה זו מדגישה את הצורך באיזון עדין בין חדשנות לאבטחה. בשעה שחברות ממהרות לשחרר יכולות אוטונומיות, עליהן להטמיע:

    • שכבות הגנה היררכיות.
    • מנגנוני "אזור חיץ" לבידוד פקודות.
    • אישורים כפולים לפני ביצוע פעולות מערכת קריטיות.

    המקרה משמש כתמרור אזהרה: ללא בקרות קפדניות, היתרונות של AI אוטונומי יעלו בערכם על הסיכונים רק כאשר נלמד להגביל את כוחו באותה מידה שאנו משחררים אותו.