סקפטיות בריאה: כך הדור הבא של ה-AI הארגוני נמדד, מנוהל ומפחיד פחות
עולם ה-AI הארגוני יוצא משלב ההייפ ועובר לסקפטיות בריאה: מנהלים מחפשים תוצאות מדידות, עובדים חוששים מתחלופת תפקידים, ואתיקה הופכת למקצוע נדרש. Dayforce וסקר IEEE מציגים מודל פרקטי: שימוש במודלי OpenAI, RAG, "AI Champions" ושקיפות, לצד בחירת יישומים ממוקדים ואחראיים במקום הבטחות מוגזמות.

מה קורה בחדרי הישיבות: מהייפ ליישום זהיר
שנה וחצי אחרי ש-ChatGPT ודומיו הפכו לנושא שיחה בכל משרד, ארגונים טכנולוגיים מתחילים להוריד הילוך מההייפ ולעבור לשאלה היותר קשה: האם ה-AI באמת מספק תוצאות עסקיות מדידות – או פשוט עוד שכבת שיווק נוצצת.
סקר עדכני של IEEE מצביע על שלב חדש בגרף האימוץ: לא התלהבות עיוורת, אלא סקפטיות בריאה.
- כ-39% ממנהיגי הטכנולוגיה אומרים שהארגון שלהם ישתמש ב-Generative AI "באופן קבוע אך סלקטיבי" – עלייה של 20% מהשנה הקודמת.
- 35% טוענים שהם כבר "משלבים במהירות" GenAI ומצפים להשפעה ישירה על השורה התחתונה.
- 91% מתכננים להרחיב שימוש ב-agentic AI לניתוח נתונים.
המסר: שלב הניסוי נגמר. עכשיו GenAI צריך להצדיק את עצמו במספרים, ביעילות ובעמידה בטעינה.
בין אופטימיות לזהירות: איך באמת מכניסים AI לארגון
גם בחברות טכנולוגיה מתקדמות, שמכירות היטב את הכלים, הגישה היום זהירה יותר. לא "נכניס בוט לכל דבר", אלא: איפה AI משלים אנשים ולא מחליף שיקול דעת?
קארי ראסמוסן, ה-Chief Digital Officer של Dayforce (פלטפורמת HCM), מסבירה ל-ZDNET: מבחינתה, AI Assistant הוא לא גימיק, אלא כלי פרודוקטיביות רב-תכליתי:
"הוא מאמן, יוצר, חוקר, קולבורטור".
Dayforce עובדת על הרחבת השימוש ב-AI לתוך הכלים היומיומיים – email, Outlook, SharePoint, HubSpot – ובשלב הבא: התאמה לפי תפקיד (role-based). כלומר, לא "עוד צ'אטבוט", אלא סוכן חכם שמבין את ההקשר המקצועי של המשתמש.
לאן מכוונים: משאבי AI שבאמת מעניינים את ההנהלה
בסקר IEEE, מנהיגי הטכנולוגיה סימנו שורה של שימושים שהם רוצים לראות בהם את ה-AI עובד עבורם. בין המרכזיים:
- זיהוי בזמן אמת של פרצות סייבר ומניעת מתקפות.
- האצת פיתוח תוכנה.
- אוטומציה ואופטימיזציה של שרשרת אספקה ומחסנים.
- אוטומציה של שירות לקוחות.
- התאמה אישית של חוויית למידה וכלי הוראה חכמים.
- האצה של מיפוי מחלות וגילוי תרופות.
- ייצוב ואוטומציה של מערכות אנרגיה.
התמונה ברורה: מנהלים רוצים AI שנכנס לתהליכים כבדים, יקרים, קריטיים – לא רק לייצר טקסטים שיווקיים.
הבעיה: ביטחון יתר במודלים, תוצאות מפוקפקות
מחצית מהמשיבים לסקר דיווחו על חשש מרכזי אחד: הסתמכות יתר על AI ותוצאות לא מדויקות.
ההסבר פשוט וגם רלוונטי מאוד לכל מי שמשחק היום עם ChatGPT, Claude או Gemini בעבודה:
- המודלים נשמעים סמכותיים, גם כשהם טועים.
- צוותים נוטים להניח שהמערכת "כנראה צודקת".
- במקרים רבים, ניתוח נתונים קלאסי או כלים קיימים היו מספיקים – בלי להפוך כל בעיה לפרויקט GenAI.
ראסמוסן מציינת שגם התועלת הפרודוקטיבית עדיין רחוקה מלהיות חד-משמעית. יש הערכות בתעשייה שאם 50% מהעובדים ישתמשו ב-ChatGPT באופן קבוע, ניתן לצפות לקפיצה של כ-10% בפרודוקטיביות. אבל:
"לא בטוח שאני קונה את זה. קודם צריך להגדיר בכלל מה זה 'משתמש פעיל' – יומי? שבועי?".
כלומר, בלי מדידה קפדנית – זה נשאר נרטיב, לא נתון.
עובדים מפחדים, מנהלים מתלבטים: איך מדברים על החלפת מקצועות
אחת השאלות הבוערות אצל מנהלים: מה אומרים לעובדים על AI בלי להצית פאניקה.
לדברי ראסמוסן, זו טעות כשה-CEO יוצא בהצהרות אגרסיביות על "מהפכת AI" בלי תוכנית אמיתית. זה מייצר רעש, אבל גם פחד.
הגישה הפרקטית יותר:
- לא להבטיח ולא לאיים – לא לנחש איזה תפקיד ייעלם.
- להראות בפועל איך התפקידים משתנים.
- לכתוב מחדש תיאורי תפקיד כך שישלבו עבודה לצד AI.
- להשקיע בהכשרת עובדים קיימים לתפקידים החדשים שנוצרים.
ראסמוסן מדגישה נקודה חשובה במיוחד לשוק: "אני לא יכולה פשוט ללכת ולגייס ותיקי AI בני 2–4 שנות ניסיון בכל תחום. אין מספיק. אז אני חייבת להכשיר מבפנים".
זו נקודה רלוונטית גם לישראל: במקום לחכות ל"קוסמי AI", כדאי לזהות אנשים חזקים בארגון, לחבר אותם לכלים – ולתת להם להוביל.
מודלים פנימיים או OpenAI? ריאליטי צ'ק של תשתיות
בעוד ארגונים רבים מדברים על "המודל שלנו", Dayforce דווקא מיישרת קו עם גישה מפוכחת: היא לא מפתחת כרגע LLM ענק משלה.
במקום זאת:
- משתמשת במודלי בסיס של OpenAI.
- בונה עליהם יכולות כמו RAG – Retrieval-Augmented Generation – כדי לאפשר חיפוש חכם וענייני על גבי הידע הארגוני.
- בוחנת שימוש ב-small LLMs ממוקדים, למשל לתחזיות מכירה, כששם יש יתרון סטטיסטי ממשי.
זה מסר חשוב למנהלים: לא כל ארגון צריך מודל משלו. לרוב, שימוש חכם בתשתית קיימת, המחוברת לנתונים פנימיים ומאובטחים, ייתן יותר ערך בפחות זמן ופחות סיכון.
שקיפות וסוכני AI: כך מרוויחים אמון מבפנים
אחד המפתחות להטמעה מוצלחת – שקיפות. עובדים רוצים להבין:
- למה הארגון מכניס AI.
- איך זה ישפיע על העבודה שלהם.
- אילו כלים מקבלים ואיך לומדים להשתמש בהם.
ב-Dayforce, המענה הוא מודל "AI Champions":
- בחירה של early adopters מצוותים שונים.
- הם משחקים עם הכלים, מוצאים שימושים אמיתיים.
- מספרים את הסיפור פנימה – מה עובד, מה חוסך זמן, מה עדיין לא בשל.
במקביל נשאלת שאלה אסטרטגית: אילו agents העובדים צריכים – אנשי המכירות? אנשי השירות? המנהלים?
לא כל טכנולוגיה מוכנה לפריים-טיים. ההכרה הזו – שעדיף להגיד "לא" או "עדיין לא" מאשר לדחוף כלי חצי אפוי – היא לב הסקפטיות הבריאה.
AI Ethics היא לא מילה יפה – היא סקיל ליבה עד 2026
אחת התוצאות המעניינות בסקר IEEE: המיומנות מספר אחת הנדרשת ל-2026 היא לא "עוד קורס Python", אלא אתיקה של AI.
הדירוג:
- 44%: כישורים באתיקה של AI (עלייה חדה מהשנה הקודמת).
- 38%: ניתוח נתונים.
- 34%: Machine Learning.
- 32%: מידול ו-processing של נתונים.
- 32%: פיתוח תוכנה (במגמת ירידה יחסית).
זו תמונת מצב ברורה: בעולם שבו כל אחד יכול לייצר מודלים, בוטים ואוטומציות, היכולת לשאול "האם זה אחראי?" הופכת ליתרון תחרותי – וגם לדרישת רגולציה עתידית.
מה ישראלים בעמדות טכנולוגיות יכולים לקחת מזה
למי שבונה היום תשתיות AI בארגונים בישראל – סטארטאפים, בנקים, ביטוח, בריאות, תעשייה ביטחונית – המסר מהסקר ומהניסיון של Dayforce חד:
- להכניס AI, אבל עם מטרות ברורות: לשפר החלטות, לחזק סייבר, לייעל תהליכי ליבה – לא רק "להראות שאנחנו חדשניים".
- למדוד, לא להניח: להגדיר מהי הצלחה, מי משתמש, כמה זמן נחסך, מה איכות התוצרים.
- להגן על העובדים, לא להפחיד אותם: להציג AI ככלי שמגדיל אחריות ויכולות, ולהציע מסלולי upskilling אמיתיים.
- לבחור נכון תשתית: מודלי בסיס חיצוניים + RAG + מודלים קטנים ייעודיים, במקום מרדף יקר אחרי "מודל בית" בלי הצדקה.
- להשקיע באתיקה, פרטיות וציות: זה כבר לא nice to have, זה חלק מליבת המוצר והמותג.
סקפטיות בריאה כלפי AI אינה בלם – היא דווקא מה שמאפשר להפוך את הטכנולוגיה מעוד צעצוע של הנהלה לכלי עבודה שמחזיק לאורך זמן.