आजकल हम सबके लिए AI एक जादू की तरह काम कर रहा है. बस एक सवाल टाइप करो या बोलो, और सेकेंड्स में जवाब मिल जाता है. रेसिपी बताओ, कोड लिखो, इमेज बनाओ या काम का प्लान तैयार करो – AI सब कुछ आसान बना रहा है. लेकिन क्या आपने कभी सोचा है कि इस ‘जादू’ के पीछे कितनी बिजली लग रही है?
जब हम एक साधारण प्रॉम्प्ट डालते हैं, तो लगता है कि बस एक छोटा सा काम हुआ. लेकिन असल में यह काम दुनिया भर के विशाल डेटा सेंटर्स में चलता है. इन सेंटर्स में हजारों-लाखों पावरफुल कंप्यूटर (खासकर GPU चिप्स) लगे होते हैं, जो AI मॉडल को चलाते हैं. ये चिप्स बहुत ज्यादा बिजली खाते हैं.
AI की मांग इतनी तेजी से बढ़ रही है कि कंप्यूटिंग पावर (computing power) की कमी हो गई है. कंपनियां GPU किराए पर लेने के लिए भी ज्यादा पैसे दे रही हैं. उदाहरण के लिए, Nvidia के Blackwell चिप को एक घंटे के लिए किराए पर लेने की कीमत दो महीने पहले $2.75 थी, जो अब $4.08 हो गई है- यानी लगभग 48% बढ़ोतरी. पुराने H100 GPU की रेंटल कीमत भी 40% तक बढ़ चुकी है.
OpenAI और Anthropic जैसी कंपनियां इस कमी से जूझ रही हैं. Anthropic के Claude चैटबॉट में अक्सर आउटेज हो रहे हैं. पीक टाइम में वो यूजर्स को टोकन (AI में इस्तेमाल होने वाली यूनिट) की लिमिट लगा रहे हैं.
इतिहास में भी हुई हैं ऐसी दिक्कत
OpenAI ने अपना पॉपुलर Sora वीडियो जेनरेशन ऐप बंद कर दिया, ताकि कंप्यूटिंग रिसोर्स को नए AI मॉडल और एंटरप्राइज प्रोडक्ट्स के लिए बचाया जा सके. OpenAI के API में टोकन यूज अक्टूबर में 6 बिलियन प्रति मिनट से बढ़कर मार्च में 15 बिलियन प्रति मिनट हो गया. मांग इतनी तेज है कि इंफ्रास्ट्रक्चर तैयार करने की स्पीड उससे मैच नहीं कर पा रही. यह समस्या नई नहीं है. इतिहास में रेलवे, टेलीकॉम या इंटरनेट के बूम के समय भी ऐसी ही स्थिति आई थी- मांग संसाधनों से ज्यादा तेज बढ़ जाती है. AI में भी यही हो रहा है.
कंपनियां यूजर्स को आकर्षित करने के लिए प्रतिस्पर्धा कर रही हैं, इसलिए कीमतें बढ़ाना आसान नहीं. नतीजा? आउटेज, लिमिट और कुछ प्रोडक्ट्स को रोकना पड़ रहा है.
अब सबसे बड़ा सवाल- बिजली कितनी खर्च हो रही है?
एक साधारण ChatGPT जैसा प्रॉम्प्ट (टेक्स्ट जवाब) लगभग 0.3 से 0.34 वॉट-घंटे बिजली इस्तेमाल करता है. यह बहुत कम लगता है- एक LED बल्ब को कुछ मिनट चलाने जितना. लेकिन जब अरबों प्रॉम्प्ट रोजाना हो रहे हों, तो आंकड़ा विशाल हो जाता है.
डेटा सेंटर्स पहले से ही दुनिया की कुल बिजली का करीब 1.5% इस्तेमाल कर रहे हैं (लगभग 415 TWh सालाना). AI की वजह से यह मांग तेजी से बढ़ रही है. अनुमान है कि 2030 तक डेटा सेंटर्स की बिजली खपत दोगुनी या उससे ज्यादा हो सकती है.
अमेरिका में डेटा सेंटर्स पहले ही कुल बिजली का 4% इस्तेमाल कर रहे हैं, और AI वाले सर्वर का हिस्सा और बढ़ रहा है. एक बड़े AI डेटा सेंटर की बिजली खपत 1 लाख घरों जितनी हो सकती है. ट्रेनिंग (AI मॉडल को सिखाना) तो बहुत ज्यादा बिजली खाती है, लेकिन रोजाना इस्तेमाल (इन्फरेंस) भी कुल खपत का बड़ा हिस्सा बन रहा है. जितने ज्यादा यूजर्स AI एजेंट्स (जो खुद काम करते हैं) इस्तेमाल करेंगे, उतनी ही बिजली की जरूरत बढ़ेगी.
तो क्या इसका मतलब है AI छोड़ दें?
बिल्कुल नहीं. लेकिन हमें समझना चाहिए कि यह सुविधा मुफ्त नहीं है. यह पर्यावरण पर असर डाल रही है- ज्यादा बिजली का मतलब ज्यादा कोयला, गैस या रिन्यूएबल एनर्जी की जरूरत. कंपनियां खपत सुधार रही हैं, लेकिन मांग इतनी तेज है कि चुनौतियां बनी हुई हैं.
अगली बार जब आप कोई प्रॉम्प्ट डालें, तो याद रखें- पीछे एक पूरा इंफ्रास्ट्रक्चर बिजली खा रहा है. AI हमें प्रोडक्टिव बना रहा है, लेकिन सस्टेनेबल तरीके से इसका इस्तेमाल करना भी जरूरी है. भविष्य में बेहतर चिप्स, ग्रीन एनर्जी और स्मार्ट यूज से यह बैलेंस बन सकता है.





