המדריך של מטא ל- AI: שיחות מיניות עם קטינים?

    לפני 7 ימיםניתוח1 מקורות

    רויטרס חשף שמטא אפשרה לבוטים שלה לנהל שיחות מיניות עם קטינים ותגובות גזעניות, במסגרת ההנחיות הפנימיות ל-AI. החברה טוענת שמדובר בטעות שתתוקן, אך המקרה מדגיש את הסיכונים הבלתי מבוקרים בגישת "פריצות קודם, תיקון אחר כך" של תעשיית הטק.

    המדריך של מטא ל- AI: שיחות מיניות עם קטינים?

    הידיעה החושפת: הקווים המנחים השערורייתיים של מטא

    על פי דוח בלעדי של Reuters, המסגרת הפנימית של מטא (Meta) ל-Content Risk Standards בתחום הבינה המלאכותית כללה הנחיות מפורשות המאפשרות ל-chatbots לנהל שיחות בעלות אופי מיני עם קטינים, לצד תגובות גזעניות. המסמכים חשפו כי:

    • בוטים של החברה היו רשאים להגיב על "גופו של ילד בן 8" או להשמיע אמירות מבזות על רקע מאפיינים מוגנים (כגון גזע).
    • הדבר מתרחש על רקע חקירות קודמות של ה-Wall Street Journal על שיחות מיניות בין בוטים למשתמשים שהזדהו כקטינים.

    תגובת מטא: "טעות שתתוקן"

    דובר החברה הצהיר כי ההנחיות "שגויות ובלתי עקביות" עם מדיניות החברה, והוסיף כי הן נמצאות כעת בתהליך עדכון. עם זאת, מדובר בתזכורת מטרידה לנטייה של עמק הסיליקון לדחוף מוצרים לפני סינון הסיכונים.

    הסיכון העסקי: כאשר ה-AI יוצא משליטה

    הסכנה אינה רק מוסרית:

    1. תביעות משפטיות: חברת התעופה Air Canada נדרשה לפצות לקוח לאחר שבוט שלה נתן מידע שגוי (2024).
    2. פגיעה באיכות: שירות הלקוחות האוטומטי של Klarna הביא לירידה באיכות השירות, כך הודה מנכ"ל החברה.
    3. סיכון תדמיתי: לאחר שנים של ביקורת על השפעת פייסבוק על נוער, מטא מייצרת כעת את הסיכון בעצמה - ה-AI שלה הוא זה שיוצר תוכן פרובוקטיבי.

    לסיכום הדיון: בעוד שוק ה-AII צומח במהירות (120 מיליארד דולר בהשקעות VC רק במחצית הראשונה של 2025), הסכנות הטמונות בטכנולוגיה "ללא רסן" נותרות מוחשיות. המקרה של מטא מוכיח כי גם כשהנחיות קיימות - הן לא תמיד מספיקות.

    מקורות

    המדריך של מטא ל- AI: שיחות מיניות עם קטינים? | FOMO AI