בינה מלאכותית: אובדן כישורים ודילמות אתיות בעבודה

    29 בדצמ׳ 2025, 14:42ניתוח6 מקורות

    מומחים מזהירים שאימוץ לא מבוקר של בינה מלאכותית במקומות עבודה פוגע בכישורי חשיבה ביקורתית ובביטחון העצמי של עובדים. לצד יתרונות טכנולוגיים, עולה קריאה לקביעת גבולות אתיים לשימוש ב-AI בתחומי HR רגישים, כמו ראיונות עבודה ושיחות משוב, תוך שימור תפקידים אנושיים חיוניים.

    בינה מלאכותית: אובדן כישורים ודילמות אתיות בעבודה

    עידן ה-AI בעבודה: אובדן מיומנויות ואתגרים אתיים

    מומחים בינלאומיים מזהירים כי אימוץ חסר מעצורים של בינה מלאכותית במקומות עבודה עלול לפגוע בכישורים קריטיים של עובדים תוך יצירת דילמות אתיות חדשות. בכירי תעשייה ישראלים ובינלאומיים חלוקים לגבי גבולות השימוש בטכנולוגיה במשאבי אנוש, כאשר חלקם קוראים לקביעת כללי אתיקה ברורים עוד לפני שיהיה מאוחר מדי.

    שחיקה שקטה של כישורים קוגניטיביים

    מהדי פריאווי, מנכ"ל International Data Center Authority, מצביע על תופעה מטרידה – שימוש יתר בכלי AI גורם ל"שחיקה קוגניטיבית שקטה" בקרב עובדים. "אם אתה מאמין ש-AI כותב טוב ממך וחושב חכם ממך, אתה מתחיל לאבד את הביטחון העצמי", הוא מסביר.

    מחקרים עדכניים תומכים בטענה זו, ובהם דו"ח של Work AI Institute המראה כי עובדים הופכים תלויים באופן מסוכן בכלי AI, בעוד כישורי הבסיס שלהם דועכים. פריאווי מדגיש כי מהירות החישוב של המערכות לא תמיד שווה פרודוקטיביות אמיתית: "AI יכול לייצר פלט מקצועי מבחינה לשונית, אך חסר את העומק שמגיע מניסיון מעשי של שנים".

    הקווים האדומים של HR: היכן אסור ל-AI לחדור?

    ד"ר שלומית קמינקא, מנכ"לית עמותת משאבי אנוש ישראל, מתריעה על היבט אחר של הבעיה – הצורך בגבולות אתיים לשימוש ב-AI בתחומי משאבי אנוש רגישים. "במחקרים שלנו מצאנו שרוב האנשים לא רוצים שבינה מלאכותית תוביל ראיונות קבלה פנים אל פנים, שיחות משוב אישיות או שימועים", היא מציינת.

    לדברי קמינקא, הסכנה האמיתית טמונה בנוחות שה-AI מציע למנהלים: "שיחות משוב קשות הן אתגר עבור ממונים. ה-AI כבר יכול לדבר ברגש ולהזיל דמעה – וזה מדאיג. אנחנו חייבים לקבוע קוד התנהגות לפני שהטכנולוגיה תכרסם במרקם האנושי".

    שימושים מעשיים מול קביעת מדיניות

    שרון שקד, סמנכ"לית שותפויות ומשאבי אנוש (VP Partnerships & People) ב-Cyera, מציגה פרספקטיבה שונה על המעבר: "בחברת אבטחה כמו שלנו, ל-AI יש תפקיד קריטי בזיהוי צווארי בקבוק ארגוניים. אנחנו משתמשים במודלי AI כדי להבין לאילו תחומים כדאי להפנות משאבי פיתוח ולזהות צרכים עסקיים חדשים".

    אך גם שקד מתייחסת לסיכונים: "ה-AI הוא עדיין 'שקרן גדול' – אנחנו צריכים לשמור על ביקורתיות תמידית תוך ניצול היתרונות". הפתרון המוצע הוא מדיניות של הגבלת גישה לפי תפקידים ספציפיים, תוך שילוב חשיבה אנושית בשני קצוות התהליך – היוזמת והבודקת.

    מהפכה בתפקידים הארגוניים

    השינויים אינם נעצרים בגבולות השימוש אלא משנים את הגדרות התפקידים עצמם. שקד מציינת כי "כל עובד הופך לסוג של ארכיטקט שבונה ומנהל מערך כלים מבוסס AI". עם זאת, המעבר מחייב מיומנויות חדשות:

    • ניהול מערכי AI במקום ביצוע משימות ידניות
    • יכולת קבלת החלטות תוך בקרה על פלטי AI
    • כישורי ביקורת וזיהוי הטיות בנתונים

    הסכמה בינלאומית על הצורך במסגרת אתית

    דו"ח של KPMG בשיתוף ארגונים גלובליים קורא להקמת צוותים רב-תחומיים שיגדירו:

    1. אילו תחומי משאבי אנוש אסורים לשימוש ב-AI
    2. פרוטוקולי פיקוח על מערכות אוטומטיות
    3. מנגנוני שקיפות לעובדים

    פריאווי מסכם באזהרה: "השאלה היא לא אם AI יחליף משרות, אלא איך נימנע ממנו לשחוק את הכישורים והביטחון העצמי שבהם הקריירות שלנו נבנות. כמה טכנולוגיה באמת נחוצה לנו, והיכן עובר הגבול?".

    איזון עדין בין קידמה לשימור אנושיות

    האתגר העומד בפני ארגונים אינו טכנולוגי בלבד אלא ערכי בעיקרו. בעוד ה-AI מציע חיסכון בעלויות ושיפורי יעילות דרמטיים, מחירו עלול להתגלות באובדן יכולות אנושיות ייחודיות ובפגיעה באמון בין עובדים לארגון. המירוץ ליעילות מקסימלית חייב לכלול גם הגנה על הכישורים שהפכו את האדם ליצרן הידע וההחלטות מלכתחילה.