עובדים אוסטרלים משתמשים ב-AI במסתרים: האתגרים וההזדמנויות
דו"ח אוסטרלי חדש מגלה ש-21%-27% מהעובדים במגזר הצווארון הלבן משתמשים ב-Gen AI במסתרים עקב חשש משיפוט שלילי. פעולה זו מובילה לחדשנות 'מלמטה למעלה' אך מסכנת אבטחת מידע, אחריות ועקביות. כשלים דוגמת השימוש ב-ChatGPT בתיקי משפט מדגישים את הצורך במסגרת רגולטורית לאומית ומיומנויות AI רחבות באוכלוסייה.

דו"ח חדש של סוכנות המשרות והכישורים האוסטרלית (Jobs and Skills Australia) חושף נתונים מדאיגים: 21% עד 27% מהעובדים במגזר הצווארון הלבן משתמשים בכלי בינה מלאכותית גנרטיבית (Gen AI) במקום העבודה – ללא ידיעת המעסיקים או אישורם.
הסוגיה העיקרית: למה עובדים מסתירים את השימוש?
המחקר מבהיר כי העובדים המסתירים את השימוש ב-AI מציינים כי הם:
- "מרגישים ששימוש ב-AI מרמה"
- חוששים "להיתפס כעצלנים"
- חוששים להיתפס כ"פחות כשירים"
למרות עידוד ממשלתי לניצול הפוטנציאל הכלכלי של AI, נוצר פער משמעותי בממשל ובתקינה.
הסיכונים והיתרונות של Shadow AI
- היתרון הבולט: עובדים אלו מוגדרים כ"חדשנים מלמטה למעלה" המניעים חדשנות במגזרים שונים
- הסיכונים המרכזיים: סיכוני אבטחת מידע, בעיות אחריות וציות, ואי-עקביות בתוצאות
"בהיעדר ממשל תקני, צל השימוש ב-AI עלול להתרבות" – מציין הדו"ח
מקרי בוחן מטלטלים
- פקידת רווחה במדינת ויקטוריה הזינה פרטים רגישים מתיק התעללות מינית בילד ל-ChatGPT – מה שהוביל לאיסור מוחלט על שימוש בכלי AI בנושאי הגנת ילדים עד 2026
- עורכי דין באוסטרליה והעולם השתמשו ב-AI ליצירת ראיות מטעות, כמו המקרה בתיק רצח במלבורן שפורסם רק אתמול
בעיית הפיצול הרגולטורי
כיום, התקנות משתנות בין מדינות אוסטרליה – עורך דין בניו סאות' ויילס למשל אסור לו להשתמש ב-AI לניסוח תצהירים, בעוד במדינות אחרות אין הנחיות ברורות.
הדרך לפתרון: ממשל AI ארצי
הדו"ח קורא ל:
- יצירת מסגרת לאומית אחידה ל-Gen AI
- שדרוג מיומנויות דיגיטליות ו-AI בכלל האוכלוסייה
- הנחיות אתיות ברורות לצד פיקוח מבוסס סיכונים
"בלי מדיניות לאומית, מעסיקים נותרים לכודים בשדה מוקשים רגולטורי – ובמקביל עובדים פוטנציאליים חוששים להפגין כישורי AI"