מהפכת הבינה המלאכותית: עלייתו של זללן האנרגיה וההתנגדות הגוברת
בעוד ערים בעולם מתנגדות להקמת מרכזי נתונים חדשים עקב צריכת האנרגיה והתשתיות, נתונים חדשים חושפים כי AI כמו ChatGPT צפוי להיות אחראי לכמחצית מצריכת החשמל העולמית של מרכזי נתונים עד 2030. מומחים קוראים לשקיפות גדולה יותר מצד חברות הטכנולוגיה.

הערים שסוגרות את השער בפני מרכזי הנתונים
ערים רבות בעולם החלו לאחרונה להפגין התנגדות גוברת להקמת מרכזי נתונים חדשים. לפי פרסומי CNET, הרקע להתנגדות נובע מדרישות האדירים של מתקנים אלו בתחומי האנרגיה, הקרקע והתשתיות. החשש העיקרי הוא מההשלכות הסביבתיות ומהנטל על רשתות החשמל המקומיות – נושאים שהופכים קריטיים עם התרחבות הפעילות הדיגיטלית.
הצד האפל של ChatGPT: המחיר האנרגטי של הבינה המלאכותית
בעוד שבשנת 2023 בלבד, מרכזי הנתונים האחראיים על AI צרכו כ-4.4% מכלל החשמל בארה"ב (ו-1.5% מצריכת האנרגיה העולמית), התחזיות מדברות על הכפלה של הצריכה עד 2030. מחקר חדש ב-Live Science חושף כי:
- אימון מודל GPT-4 של OpenAI בלבד צרך כ- 50 ג'יגה-וואט-שעה - שוות ערך לאספקת חשמל לסן פרנסיסקו למשך שלושה ימים שלמים
- ביולי 2025 שיגרו משתמשי ChatGPT למעלה מ-2.5 מיליארד פקודות ביום – כל אחת מהן מצריכה משאבי חישוב אינטנסיביים
- שרת Nvidia DGX A100 יחיד צורך עד 6.5 קילו-וואט, ואימון מודל AI טיפוסי דורש ציוד של אלפי GPU הפועלים במקביל במשך שבועות
ד"ר סיד שאודרי, מומחה למערכות פיזור עומסים מאוניברסיטת SUNY, מסביר: "גם לאחר סיום האימון, ההפעלה היומיומית של GPTs צורכת אנרגיה אדירה עקב כמויות הפניות האסטרונומיות".
השקיפות האבודה - הבעיה האמיתית
חוקרים כמו אלכס דה וריס-גאו מהאוניברסיטה החופשית באמסטרדם מצביעים על מחסור חמור בנתונים: ענקיות הטכנולוגיה (Google, Microsoft, Meta) אינן מפרסמות נתונים מדויקים על צריכת האנרגיה של מערכות ה-AI שלהן. כתוצאה, קשה להעריך את ההשפעה הסביבתית המלאה או לתכנן פתרונות ריאליים.
"הכדור נמצא במגרש של קובעי המדיניות", קובע דה וריס-גאו. "חובת גילוי הנתונים חייבת להיות מוטלת בחוק, ורק כך נוכל לקדם AI אחראי סביבתית".
מקורות
