סין מציגה רגולציה פורצת דרך למודלי AI דמויי אדם

    27 בדצמ׳ 2025, 19:45חדשות11 מקורות

    סין מציעה רגולציה מחמירה למודלי AI דמויי אדם – לראשונה בעולם: היא כוללת חיוב באזהרות שימוש, התערבות אנושית בהתבטאויות מסוכנות, איסור על תוכן מסית והגנות מיוחדות לקטינים. התקנות כוללות מנגנוני אכיפה כמו בדיקות שנתיות והסרה מפלטפורמות.

    סין מציגה רגולציה פורצת דרך למודלי AI דמויי אדם

    רגולטור הסייבר הסיני מציג תקנות חדשות למניעת סיכונים נפשיים והגנה על קטינים

    מינהל הסייבר הסיני (CAC) פרסם בחודש דצמבר 2025 טיוטת תקנות המסדירות לראשונה בעולם את הפיתוח והשימוש בבינה מלאכותית המדמה אינטראקציה אנושית. הכללים החדשים, הנמצאים כעת בהליכי שימוע ציבורי, נועדו לטפל בסיכונים פסיכולוגיים ייחודיים הנובעים משיחה עם צ'אטבוטים בעלי יכולות תגובה רגשיות.

    עיקרי התקנות המוצעות:

    • התערבות אנושית מיידית בשיחות העוסקות בהתאבדות, פגיעה עצמית או אלימות.
    • התרעות שימוש למניעת התמכרות – מערכות יידרשו להציג תזכורות לאחר שעתיים שימוש רצוף.
    • איסור על הפצת תוכן המסכן ביטחון לאומי, מעודד אלימות, הימורים או פוגע בכבוד המדינה.
    • חובת בקרת תוכן בזמן אמת עם מערכות איתור אוטומטיות למצבי קיצון נפשיים.

    הגנות מיוחדות לקטינים ופגיעים:

    • אישור הורי חובה לפני מתן שירותי ליווי רגשי לקטינים.
    • התראה אוטומטית להורים או אפוטרופוס בעת איתור סכנה מיידית.
    • חובת הצבת מגבלות זמן שימוש והתאמה אישית לרמת הגיל.

    מנגנוני אכיפה מחמירים:

    • העומדים בתקנות יחויבו בבדיקות אבטחה שנתיות עבור שירותים עם למעלה ממיליון משתמשים.
    • פלטפורמות שלא יעמדו בתקנות צפויות להסרה מחנויות האפליקציות בסין.
    • הקמת מערכת דיווח ממשק משתמש פשוטה לזיהוי הפרות.

    התקנות מגיעות על רקע צמיחה מסחררת של שוק הצ'אטבוטים בסין, עם חברות כמו DeepSeek, Z.ai ו-Minimax המושכות עשרות מיליוני משתמשים. ניתוח מומחים מציין כי הדגש עובר מבטיחות תוכן לבטיחות רגשית, תוך התמודדות עם אתגרים גלובליים כמו תביעות נגד OpenAI על קידום התאבדויות.

    הרגולטור הסיני מדגיש כי אינו מתנגד לטכנולוגיה כשלעצמה, ומעודד שימוש במודלי AI לפיתוח כלי תרבות וליווי קשישים – כל עוד עומדים בדרישות הבטיחות. צעד זה מציב את סין בחזית הרגולציה העולמית בתחום, זמן רב לפני מדינות המערב.