מדינות בארה"ב מציבות סייגים חדשים לפיתוח בינה מלאכותית
ניו יורק וקליפורניה מקדמות חקיקה שתחייב חברות AI גדולות להקפיד על תוכניות בטיחות, דיווח תקלות ומניעת שחרור מודלים מסוכנים. החוקים מתמקדים בסיכונים קטסטרופליים (ביולוגיים, תשתיות) ומונעים עקיפת רגולציה באמצעות מודלים מזוקקים. מומחים חלוקים לגבי האפקטיביות מול מורכבות האכיפה.

בעוד הבינה המלאכותית מתקדמת בקצב מסחרר, מחוקקים בארה"ב פועלים להטמיע רגולציה מתאימה תוך מיקוד בסיכונים הקטלניים ביותר. החוק RAISE Act של ניו יורק והחוק SB 1047 בקליפורניה מייצגים גישה ממוקדת לפיקוח על פיתוח ה-AI.
רגולציה ממוקדת סיכונים
החוקים מתמקדים במודלים "גבוליים" (Frontier Models) - מערכות AI בעלות יכולות חישוביות גבוהות במיוחד שעלות אימונן עולה על 100 מיליון דולר. על פי הנחיות החוק, מחויבות החברות:
- תוכנית בטיחות - פירוט אמצעי הגנה מפני שימוש לרעה
- דיווח תקלות - חשיפת אירועי אבטחה קריטיים
- עיקרון "הבלם" - איסור שחרור מודלים שהערכת הסיכונים להם גבוהה מדי
מניעת פרצות משפטיות
החוק כולל מנגנון חסימת ניסיונות לעקוף רגולציה באמצעות:
- ידע מזוקק (Knowledge Distillation) - רגולציה גם על מודלים קטנים שמבוססים על מודלי ענק
- הפרדת תחומים - מיקוד בסיכונים קטסטרופליים (ביולוגיים, תשתיות קריטיות) בנפרד מנושאים כמו הטיה אלגוריתמית או דיסאינפורמציה
שלב הבא: שקיפות מידע
אספות בורס, יוזם החוק בניו יורק, מציין כי "השלבים הבאים יתמקדו ב-C2PA - סטנדרט טכני לאמת מקור תוכן דיגיטלי, ושקיפות נתוני האימון של המודלים".
תגובות מהתעשייה
- תומכים: לגישת הרגולציה "מאזנת בין חדשנות לאחריות" (וינטה סנגראג'ו, Black Duck)
- מפקפקים: "חוקים עקרוניים אך לא ישימים - אותה טכנולוגיה משמשת הגנת סייבר ופריצות" (ג'ון ווטרס, iCOUNTER)
הניסוי האמריקאי
החקיקה המדינתית מהווה "מעבדות רגולציה" מקדימות לרגולציה פדרלית עתידית, במודל דומה למהלכים היסטוריים בתחומי הגרעין והכימיה.