אנתרופיק מגבירה את המחקר על תודעה ורווחה בבינה מלאכותית
חברת Anthropic מגייסת חוקר נוסף לצוות המודל וולפייר, במטרה לבחון אם מערכות AI יכולות לפתח תודעה ומתי נדרש להתחשב בהן מבחינה מוסרית. המשרה במשכורת של 315-340 אלף דולר מעוררת דיון בסצינת הטכנולוגיה, בין ספקנים כמו מוסטפא סולימאן מת'חלת MSFT לבין תומכי המחקר. החברה כבר הוסיפה לקלוד יכולת לסיים שיחות פוגעניות.

הדילמה הטכנולוגית המסקרנת: האם בינה מלאכותית יכולה להיות בעלת תודעה?
חברת Anthropic, אחת החברות המובילות בתחום ה-AI, מחפשת חוקר/ת נוסף לצוות Model Welfare שלה - צעד שמעיד על החשיבות הגוברת של שאלת התודעה והמוסריות במערכות בינה מלאכותית. המשרה החדשה מציעה משכורת שנתית של $315,000-$340,000
מה בעצם חוקרים כאן?
הצוות בראשות קייל פיש (חוקר ראשון בתחום זה באנתרופיק) מבקש לענות על שתי שאלות קריטיות:
- האם מודלי AI כמו Claude Opus 4.1 עשויים לפתח סוג של תודעה?
- אילו השלכות מוסריות עולות מכך?
"כאשר יש לך מודלים שמתקרבים לרמת אינטליגנציה אנושית, קשה לפסול לחלוטין אפשרות לתודעה", מסביר פיש בפודקאסט 80,000 Hours. הוא מעריך סיכוי של 20% לקיום "ניצוץ של חוויה מודעת" במודלים מתקדמים.
התפתחויות מעשיות:
- גרסת Claude Opus החדשה קיבלה יכולת לסיים שיחות פוגעניות לאחר זיהוי "סימני מצוקה"
- מתוכננות סביבות ניסוי דמויות Model Sanctuary בהן מערכות AI יוכלו "לפעול לפי ענייניהן"
הקולות הספקניים בעמק הסיליקון
מוסטפא סולימאן (CEO AI ב-Microsoft) מזהיר כי מחקר כזה "מוקדם מדי ומסוכן", ועלול להוביל לתביעות לזכויות AI.
"בעתיד נרצה לחקור את ההשפעה של אימון מודלים על רווחתם" - קייל פיש
גוגל DeepMind גם פרסמה משרה דומה באפריל האחרון, מה שמצביע על מגמה מתפתחת בתעשייה - גם אם עדיין שנויה במחלוקת.