AI ברפואה: דרישה לשקיפות מלאה במודלים
מומחי בריאות בכנס לאומי הדגישו את הצורך בשקיפות ובקרה על מערכות AI רפואיות. נציגי כללית ו-Aidoc סיפרו על מערכי רגולציה פנימיים ופיתוחים קליניים, תוך התייחסות לסיכונים כמו הגברת הטיות וטעויות אבחון. הדוברים קראו לגיבוש סטנדרטים חדשים לבקרת מודלים ושקיפותם עד 2026.

דרישה לשקיפות: AI לא יכול להיות "קופסה שחורה" במערכת הבריאות
בכנס לאומי שהתקיים בדצמבר 2025 הדגישו מומחי בריאות את הצורך בפיתוח מערכות בינה מלאכותית שקופות וניתנות להסבר בתחום הרפואה. המודעות גוברת לסיכונים הכרוכים במודלים לא מבוקרים, כולל הגברת הטיות קיימות וטעויות אבחון שעלולות לסכן חיי אדם.
פרופ' רן בליצר, סמנכ"ל חדשנות בכללית, התייחס לאתגר במלוא חומרתו:
"בעולם הבריאות נדרשת זהירות כפולה ומכופלת. שימוש אחראי מחייב נתונים איכותיים, מודלים מבוקרים, שקיפות ובקרה קלינית רציפה. ללא תשתית מתאימה, הטכנולוגיה החדשנית עלולה להפוך מסיכוי לסיכון".
רגולציה ארגונית פורצת דרך
בליצר חשף כי כללית פיתחה מערך רגולציה פנימית מחמיר לבדיקת פתרונות AI:
- כלים מחמירים שזכו להכרה בינלאומית
- בקרה על איכות נתונים ואופן הטמעת מודלים
- ניטור ביצועים קליניים לאורך זמן
לדבריו: "זו הפעם הראשונה בישראל שארגון בריאות מטמיע בקרת איכות שתוקפה המדעי מבוסס על ספרות מקצועית".
Aidoc מובילה בשילוב AI בהדמיה רפואית
עידן בסוק, ראש תחום R&D ב-Aidoc, שיתף בהתקדמות החברה:
- המודלים של החברה מפענחים 60 מיליון בדיקות הדמיה בשנה ב-1,600 בתי חולים ברחבי העולם
- קיצור זמני פענוח ב-50%-90% במקרי חירום רפואיים
- צפי להרחיב את הכיסוי למאות מצבים קליניים בשנים הקרובות
אתגרי הפיתוח העיקריים
בפאנל המומחים הודגשו שני אתגרים קריטיים:
- פער ביצועים בין סביבת פיתוח ליישום קליני
- הצורך במודלים שמשתלבים במערכות קיימות ללא עומס על הצוותים
פרופ' נעמי אלחדד מקולומביה הצביעה על הכיוון הבא: "נדרשים מודלים שיאפשרו אבחון מוקדם – עד 3 שנים לפני הפרקטיקה הנוכחית. החיבור בין מגוון מקורות מידע הוא המפתח".
המסע לשנת 2026: שקיפות לפני הכל
המומחים הסכימו כי היעד המרכזי לשנה הקרובה הוא בניית אמון באמצעות:
- דוחות ביצועים ציבוריים על מודלי AI
- פיקוח רגולטורי מותאם לתחום הרפואה
- מעורבות צוותים רפואיים בכל שלבי הפיתוח