סקפטיות בריאה: כך הדור הבא של ה-AI הארגוני נמדד, מנוהל ומפחיד פחות

    12 בנוב׳ 2025, 13:07ניתוח1 מקורות

    עולם ה-AI הארגוני יוצא משלב ההייפ ועובר לסקפטיות בריאה: מנהלים מחפשים תוצאות מדידות, עובדים חוששים מתחלופת תפקידים, ואתיקה הופכת למקצוע נדרש. Dayforce וסקר IEEE מציגים מודל פרקטי: שימוש במודלי OpenAI, RAG, "AI Champions" ושקיפות, לצד בחירת יישומים ממוקדים ואחראיים במקום הבטחות מוגזמות.

    סקפטיות בריאה: כך הדור הבא של ה-AI הארגוני נמדד, מנוהל ומפחיד פחות

    מה קורה בחדרי הישיבות: מהייפ ליישום זהיר

    שנה וחצי אחרי ש-ChatGPT ודומיו הפכו לנושא שיחה בכל משרד, ארגונים טכנולוגיים מתחילים להוריד הילוך מההייפ ולעבור לשאלה היותר קשה: האם ה-AI באמת מספק תוצאות עסקיות מדידות – או פשוט עוד שכבת שיווק נוצצת.

    סקר עדכני של IEEE מצביע על שלב חדש בגרף האימוץ: לא התלהבות עיוורת, אלא סקפטיות בריאה.

    • כ-39% ממנהיגי הטכנולוגיה אומרים שהארגון שלהם ישתמש ב-Generative AI "באופן קבוע אך סלקטיבי" – עלייה של 20% מהשנה הקודמת.
    • 35% טוענים שהם כבר "משלבים במהירות" GenAI ומצפים להשפעה ישירה על השורה התחתונה.
    • 91% מתכננים להרחיב שימוש ב-agentic AI לניתוח נתונים.

    המסר: שלב הניסוי נגמר. עכשיו GenAI צריך להצדיק את עצמו במספרים, ביעילות ובעמידה בטעינה.

    בין אופטימיות לזהירות: איך באמת מכניסים AI לארגון

    גם בחברות טכנולוגיה מתקדמות, שמכירות היטב את הכלים, הגישה היום זהירה יותר. לא "נכניס בוט לכל דבר", אלא: איפה AI משלים אנשים ולא מחליף שיקול דעת?

    קארי ראסמוסן, ה-Chief Digital Officer של Dayforce (פלטפורמת HCM), מסבירה ל-ZDNET: מבחינתה, AI Assistant הוא לא גימיק, אלא כלי פרודוקטיביות רב-תכליתי:

    "הוא מאמן, יוצר, חוקר, קולבורטור".

    Dayforce עובדת על הרחבת השימוש ב-AI לתוך הכלים היומיומיים – email, Outlook, SharePoint, HubSpot – ובשלב הבא: התאמה לפי תפקיד (role-based). כלומר, לא "עוד צ'אטבוט", אלא סוכן חכם שמבין את ההקשר המקצועי של המשתמש.

    לאן מכוונים: משאבי AI שבאמת מעניינים את ההנהלה

    בסקר IEEE, מנהיגי הטכנולוגיה סימנו שורה של שימושים שהם רוצים לראות בהם את ה-AI עובד עבורם. בין המרכזיים:

    • זיהוי בזמן אמת של פרצות סייבר ומניעת מתקפות.
    • האצת פיתוח תוכנה.
    • אוטומציה ואופטימיזציה של שרשרת אספקה ומחסנים.
    • אוטומציה של שירות לקוחות.
    • התאמה אישית של חוויית למידה וכלי הוראה חכמים.
    • האצה של מיפוי מחלות וגילוי תרופות.
    • ייצוב ואוטומציה של מערכות אנרגיה.

    התמונה ברורה: מנהלים רוצים AI שנכנס לתהליכים כבדים, יקרים, קריטיים – לא רק לייצר טקסטים שיווקיים.

    הבעיה: ביטחון יתר במודלים, תוצאות מפוקפקות

    מחצית מהמשיבים לסקר דיווחו על חשש מרכזי אחד: הסתמכות יתר על AI ותוצאות לא מדויקות.

    ההסבר פשוט וגם רלוונטי מאוד לכל מי שמשחק היום עם ChatGPT, Claude או Gemini בעבודה:

    • המודלים נשמעים סמכותיים, גם כשהם טועים.
    • צוותים נוטים להניח שהמערכת "כנראה צודקת".
    • במקרים רבים, ניתוח נתונים קלאסי או כלים קיימים היו מספיקים – בלי להפוך כל בעיה לפרויקט GenAI.

    ראסמוסן מציינת שגם התועלת הפרודוקטיבית עדיין רחוקה מלהיות חד-משמעית. יש הערכות בתעשייה שאם 50% מהעובדים ישתמשו ב-ChatGPT באופן קבוע, ניתן לצפות לקפיצה של כ-10% בפרודוקטיביות. אבל:

    "לא בטוח שאני קונה את זה. קודם צריך להגדיר בכלל מה זה 'משתמש פעיל' – יומי? שבועי?".

    כלומר, בלי מדידה קפדנית – זה נשאר נרטיב, לא נתון.

    עובדים מפחדים, מנהלים מתלבטים: איך מדברים על החלפת מקצועות

    אחת השאלות הבוערות אצל מנהלים: מה אומרים לעובדים על AI בלי להצית פאניקה.

    לדברי ראסמוסן, זו טעות כשה-CEO יוצא בהצהרות אגרסיביות על "מהפכת AI" בלי תוכנית אמיתית. זה מייצר רעש, אבל גם פחד.

    הגישה הפרקטית יותר:

    • לא להבטיח ולא לאיים – לא לנחש איזה תפקיד ייעלם.
    • להראות בפועל איך התפקידים משתנים.
    • לכתוב מחדש תיאורי תפקיד כך שישלבו עבודה לצד AI.
    • להשקיע בהכשרת עובדים קיימים לתפקידים החדשים שנוצרים.

    ראסמוסן מדגישה נקודה חשובה במיוחד לשוק: "אני לא יכולה פשוט ללכת ולגייס ותיקי AI בני 2–4 שנות ניסיון בכל תחום. אין מספיק. אז אני חייבת להכשיר מבפנים".

    זו נקודה רלוונטית גם לישראל: במקום לחכות ל"קוסמי AI", כדאי לזהות אנשים חזקים בארגון, לחבר אותם לכלים – ולתת להם להוביל.

    מודלים פנימיים או OpenAI? ריאליטי צ'ק של תשתיות

    בעוד ארגונים רבים מדברים על "המודל שלנו", Dayforce דווקא מיישרת קו עם גישה מפוכחת: היא לא מפתחת כרגע LLM ענק משלה.

    במקום זאת:

    • משתמשת במודלי בסיס של OpenAI.
    • בונה עליהם יכולות כמו RAG – Retrieval-Augmented Generation – כדי לאפשר חיפוש חכם וענייני על גבי הידע הארגוני.
    • בוחנת שימוש ב-small LLMs ממוקדים, למשל לתחזיות מכירה, כששם יש יתרון סטטיסטי ממשי.

    זה מסר חשוב למנהלים: לא כל ארגון צריך מודל משלו. לרוב, שימוש חכם בתשתית קיימת, המחוברת לנתונים פנימיים ומאובטחים, ייתן יותר ערך בפחות זמן ופחות סיכון.

    שקיפות וסוכני AI: כך מרוויחים אמון מבפנים

    אחד המפתחות להטמעה מוצלחת – שקיפות. עובדים רוצים להבין:

    • למה הארגון מכניס AI.
    • איך זה ישפיע על העבודה שלהם.
    • אילו כלים מקבלים ואיך לומדים להשתמש בהם.

    ב-Dayforce, המענה הוא מודל "AI Champions":

    • בחירה של early adopters מצוותים שונים.
    • הם משחקים עם הכלים, מוצאים שימושים אמיתיים.
    • מספרים את הסיפור פנימה – מה עובד, מה חוסך זמן, מה עדיין לא בשל.

    במקביל נשאלת שאלה אסטרטגית: אילו agents העובדים צריכים – אנשי המכירות? אנשי השירות? המנהלים?

    לא כל טכנולוגיה מוכנה לפריים-טיים. ההכרה הזו – שעדיף להגיד "לא" או "עדיין לא" מאשר לדחוף כלי חצי אפוי – היא לב הסקפטיות הבריאה.

    AI Ethics היא לא מילה יפה – היא סקיל ליבה עד 2026

    אחת התוצאות המעניינות בסקר IEEE: המיומנות מספר אחת הנדרשת ל-2026 היא לא "עוד קורס Python", אלא אתיקה של AI.

    הדירוג:

    • 44%: כישורים באתיקה של AI (עלייה חדה מהשנה הקודמת).
    • 38%: ניתוח נתונים.
    • 34%: Machine Learning.
    • 32%: מידול ו-processing של נתונים.
    • 32%: פיתוח תוכנה (במגמת ירידה יחסית).

    זו תמונת מצב ברורה: בעולם שבו כל אחד יכול לייצר מודלים, בוטים ואוטומציות, היכולת לשאול "האם זה אחראי?" הופכת ליתרון תחרותי – וגם לדרישת רגולציה עתידית.

    מה ישראלים בעמדות טכנולוגיות יכולים לקחת מזה

    למי שבונה היום תשתיות AI בארגונים בישראל – סטארטאפים, בנקים, ביטוח, בריאות, תעשייה ביטחונית – המסר מהסקר ומהניסיון של Dayforce חד:

    1. להכניס AI, אבל עם מטרות ברורות: לשפר החלטות, לחזק סייבר, לייעל תהליכי ליבה – לא רק "להראות שאנחנו חדשניים".
    2. למדוד, לא להניח: להגדיר מהי הצלחה, מי משתמש, כמה זמן נחסך, מה איכות התוצרים.
    3. להגן על העובדים, לא להפחיד אותם: להציג AI ככלי שמגדיל אחריות ויכולות, ולהציע מסלולי upskilling אמיתיים.
    4. לבחור נכון תשתית: מודלי בסיס חיצוניים + RAG + מודלים קטנים ייעודיים, במקום מרדף יקר אחרי "מודל בית" בלי הצדקה.
    5. להשקיע באתיקה, פרטיות וציות: זה כבר לא nice to have, זה חלק מליבת המוצר והמותג.

    סקפטיות בריאה כלפי AI אינה בלם – היא דווקא מה שמאפשר להפוך את הטכנולוגיה מעוד צעצוע של הנהלה לכלי עבודה שמחזיק לאורך זמן.

    מקורות

    ידיעות קשורות