מי יקבע את כללי המשחק בעידן ה-AI: החברות או החברה האנושית?

    12 בנוב׳ 2025, 10:33דעה1 מקורות

    חוקר בכיר מ-DeepSeek מזהיר מקריסת שוק העבודה בתוך 20 שנה ומציע שחברות הטק יובילו את "עיצוב מחדש" הסדר החברתי. המאמר מסביר למה רעיון כזה מסוכן, בוחן את כשלי הרגולציה הקיימת, ומציע אלטרנטיבה: מודל של ממשלות, חוקרים וחברה אזרחית שמציבים גבולות לטכנולוגיה במקום למסור את הדמוקרטיה לידי החברות שפיתחו את ה-AI.

    שיחת האזהרה של DeepSeek: לאן באמת הולך עידן ה-AI?

    בחודשים האחרונים, השיח הגלובלי סביב בינה מלאכותית מלא בתחזיות קיצוניות: מהבטחות למהפכה כלכלית ועד אזהרות על חיסול המוני של משרות. על הרקע הזה נשא דאלי צ'ן, חוקר בכיר ב-DeepSeek — אחד הסטארטאפים הלוהטים בזירת ה-AI הסינית — אזהרה חדה: בתוך כעשרים שנה רוב המשרות כפי שאנחנו מכירים אותן היום עלולות להיעלם.

    החזון שלו קודר: סוף "ירח הדבש" עם ה-AI, גל פיטורים עצום, חוזים חברתיים שנשברים, מוסדות שלא עומדים בקצב. אבל לא פחות חשוב מהאזהרה היא ההצעה שהוא מצרף אליה — וזו כבר סיפור אחר לגמרי.

    צ'ן טוען שדווקא חברות הטכנולוגיה הן אלו שצריכות להפוך ל"שומרות האנושות": קודם לדאוג לבטיחות, ואז לעזור "לעצב מחדש" את הסדר החברתי. כאן, עבור כל מי שקרא פעם דיסטופיה או פשוט עקב אחרי תולדות העשור האחרון בסיליקון ואלי, נדלקות כל הנורות האדומות.

    כשהבונים של המערכת מציעים גם לכתוב את החוקים

    המילה "לעצב מחדש" (reshape) היא לא רק ניסוח מאיים; היא משקפת תפיסה מסוכנת: מי שמפתח את הכלים שמאיימים לזעזע את החברה, מציע גם להיות זה שמגדיר איך תיראה החברה שאחרי הטלטלה.

    האנלוגיה המתבקשת: זה כאילו מהנדסי פרויקט מנהטן היו מבקשים לכתוב את החוקה החדשה של העולם — אחרי שהכור הגרעיני שלהם יוצא להנפקה בוול סטריט.

    הבעיה כאן איננה תאורטית:

    • חברות טכנולוגיה הגדילו בעקביות את כוחן הפוליטי והכלכלי.
    • הן נשענות על מודלים עסקיים שמנצלים דאטה, תשומת לב ואוטומציה עד הקצה.
    • הן כבר כיום משפיעות על מה שאנחנו רואים, קוראים, קונים וחושבים — דרך אלגוריתמי המלצה, מנועי חיפוש, רשתות חברתיות ומערכות פרסונליזציה.

    להאמין שגופים כאלה, שמחויבים בעיקר לבעלי מניות ולגרפים של הרבעון הבא, יפעלו כשומרי אינטרס ציבורי טהור? זה לא נאיבי — זה מסוכן.

    AI כבר משנה את המציאות – בלי שנבחרנו למשחק

    כדי להבין למה הדרמה סביב הצעת צ'ן לא מוגזמת, צריך להסתכל על מה שכבר קורה עכשיו:

    • מערכות AI מסננות תכנים, חוסמות משתמשים ומעצבות שיח ציבורי.
    • מודלים מייצרי-תוכן מציפים את הרשת בחומרים חצי-אוטומטיים, שמקשים להבדיל בין מקור מוסמך לבין "סלאג'" אלגוריתמי.
    • מערכות קבלת החלטות אוטומטיות – בגיוס עובדים, באשראי, בביטוח – כבר הוכחו כמוטות, מפלות, ושקופות בערך כמו קוד סגור בסינית.

    בכל פעם שמתפוצצת פרשת AI מביכה או מסוכנת, תגובת ברירת המחדל דומה: טקסט יח"צ על "תקלה", הבטחה לשיפור, והמשך ריצה קדימה לקראת השקת הפיצ'ר הבא. הפאניקה הציבורית קצרה; המצגת למשקיעים ארוכה.

    במצב כזה, למסור לאותן חברות גם את מפת הדרכים החברתית-פוליטית לעידן ה-AI — זה להרחיב מונופול טכנולוגי למונופול נורמטיבי.

    רגולטורים חלשים – אבל זו לא סיבה להפריט את הדמוקרטיה

    הטיעון של צ'ן נשען גם על אמת חלקית: הרגולציה הנוכחית על AI אכן מקרטעת.

    • האיחוד האירופי קידם את ה-AI Act – צעד משמעותי, אך עדיין מוגבל ומאוחר.
    • בארה"ב אין מסגרת אחידה: ועדות, הנחיות, יוזמות נקודתיות – הרבה דיבורים, מעט שיניים.
    • בסין, שבה פועלת DeepSeek, יש רגולציה חזקה ומהירה יותר במובנים מסוימים, אבל היא כרוכה בשליטה ריכוזית, צנזורה ומעקב – מודל שקשה להציג כפתרון מועדף לעולם חופשי.

    הפער הזה יוצר ואקום: מדינות זזות לאט; חברות זזות מהר. אבל המסקנה מכך אינה שצריך להניח לחברות לכתוב את הכללים בעצמן. להפך — זה מדגים למה אי אפשר לסמוך על מודל של "תסמכו עלינו, אנחנו היזמים".

    חברות טכנולוגיה הן לא ישויות ניטרליות. הן לא נציגות ציבור, ולא אפוטרופוסיות של האנושות. הן שחקנים עסקיים, חכמים, יצירתיים, אבל ממוקדי אינטרס. בכל מקום שבו צמצום נזק מתנגש עם הכנסות — הנזק יישאר, אלא אם יכאב יותר משפטית, פוליטית או ציבורית.

    דוגמאות הן כמעט קלישאה:

    • אם מערכת סינון מועמדים מתגלה כמפלה — תיקון אמיתי דורש זמן, כסף, שקיפות והודאה באשמה.
    • אם מודל יוצר תוכן מזייף עובדות ומציף את הרשת — בלימת היקף השימוש פוגעת בהכנסות.

    בלי כוח חיצוני שמכריח, אין אינסנטיב אמיתי לשינוי. והמחשבה שלפיה אותם שחקנים צריכים לקבל סמכות לעצב "סדר חברתי חדש" היא בדיוק המקום שבו בדיון מקצועי על AI נכנס ממד מוסרי-פוליטי חריף.

    להיות בעד AI, אבל נגד מיתוס ה"מושיעים" מהטק

    הביקורת הזו לא יוצאת נגד טכנולוגיה — אלא נגד האופן שבו אנחנו מתפתים למסגר אותה.

    כמו שהמאמר המקורי מזכיר: גם הלודיטים המיתולוגיים לא שנאו מכונות, הם שנאו ניצול. הם התנגדו לכך שבעלי המפעלים השתמשו בטכנולוגיה כדי לרסק זכויות ולחסל פרנסה.

    האנלוגיה לעידן ה-AI כמעט מתבקשת לישראל 2025:

    • מפתחים ישראלים עובדים היום על מודלים, פלטפורמות ואוטומציות, שמסוגלות להחליף עבודות קלאסיות בהיי-טק, בקול-סנטר, אפילו ביצירה.
    • מצד שני, ה-AI פותח כאן גם הזדמנויות: סטארטאפים של יעילות אנרגטית, רפואה מותאמת אישית, סייבר חכם יותר, כלי פיתוח שמאיצים פרויקטים.

    כלומר, אפשר להיות חד-משמעית בעד אימוץ AI, ובאותה נשימה לדרוש:

    • שקיפות במודלים שמשפיעים על חיינו.
    • איסור ניצול דאטה בלי הסכמה ברורה.
    • הגנה מפני פיטורים המוניים ללא רשת ביטחון.
    • מנגנוני ביקורת ציבוריים אמיתיים — לא "ועדת אתיקה" שממומנת על ידי החברה עצמה.

    אז מי כן צריך לכתוב את הכללים?

    אם אנחנו לוקחים ברצינות את התחזית שעד 20 שנה מהיום שוק העבודה ייראה אחרת לחלוטין, אין לנו פריבילגיה להישאר רק באזור האזהרות.

    האלטרנטיבה למודל "תנו לחברות להחליט" מחייבת בנייה של מערך משותף, שיכלול:

    1. ממשלות ורגולטורים – עם השקעה אמיתית בידע טכנולוגי, גיוס מומחי AI לסקטור הציבורי, וחקיקה עם שיניים: אחריות משפטית, קנסות, חובת תיעוד.
    2. חברה אזרחית וארגוני זכויות – כדי לוודא שהשיח לא נשלט רק על ידי לוביסטים במצגות.
    3. חוקרים עצמאיים – שיקבלו גישה לנתונים ולמודלים, כדי לבדוק אפקטים חברתיים, הטיות וסיכונים.
    4. קולות מתוך התעשייה – כן, כולל מפתחים ומנהלים שמוכנים לשים גבולות גם במחיר פגיעה בטווח הקצר.

    עבור קהל ישראלי, השאלה פרקטית מאוד: ישראל היא מעצמה של AI ביחס לגודלה. האם נרצה להיות אלה שמייצאים לעולם גם מודלים של אחריות ושקיפות, או רק אלגוריתמים מהירים יותר וזולים יותר?

    למה חשוב להתחיל את השיחה עכשיו

    צ'ן צודק בדבר אחד מרכזי: אם גל השינוי שהוא מתאר יגיע, אי אפשר יהיה לאלתר תשובות בזמן אמת. חוזים חברתיים, מערכות חינוך, מודלים של ביטחון תעסוקתי – כל אלה צריכים להתחיל להתעדכן עכשיו.

    אבל הפתרון לא יכול להיות הפרטת ההכרעות האתיות והחברתיות לטובת הנהלות של חברות טכנולוגיה. מי שיכולים מחר לסגור API, לדרוס מתחרה או לשנות אלגוריתם, לא אמורים לקבל מנדט לשנות גם את כללי המשחק של האנושות.

    הכיוון הרצוי פשוט יותר, אבל דורש אומץ פוליטי ואזרחי:

    • להפסיק לבלבל בין חדשנות לבין חסינות מביקורת.
    • להכיר בכך שהמעצבים של המודלים צריכים להיות כפופים לכללים שנקבעים דמוקרטית.
    • לבנות מנגנוני פיקוח שיחזיקו מעמד גם מול לובי של "חדי-קרן" וענקיות ענן.

    אם העשור הקרוב יהיה אכן עשור של שיבוש עמוק, השאלה הקריטית אינה רק "מה ה-AI יכול לעשות", אלא "מי מחליט איך משתמשים בו". התשובה הנכונה לא תגיע ממצגת למשקיעים, אלא מהסכמה חברתית רחבה — כזו שלא נכתבת בקוד סגור.

    מקורות

    ידיעות קשורות