आप तो एक प्रॉम्प्ट डालकर रिजल्ट पा लेते हैं, मगर क्या जानते हैं कितनी बिजली खाता है AI?


आजकल हम सबके लिए AI एक जादू की तरह काम कर रहा है. बस एक सवाल टाइप करो या बोलो, और सेकेंड्स में जवाब मिल जाता है. रेसिपी बताओ, कोड लिखो, इमेज बनाओ या काम का प्लान तैयार करो – AI सब कुछ आसान बना रहा है. लेकिन क्या आपने कभी सोचा है कि इस ‘जादू’ के पीछे कितनी बिजली लग रही है?

जब हम एक साधारण प्रॉम्प्ट डालते हैं, तो लगता है कि बस एक छोटा सा काम हुआ. लेकिन असल में यह काम दुनिया भर के विशाल डेटा सेंटर्स में चलता है. इन सेंटर्स में हजारों-लाखों पावरफुल कंप्यूटर (खासकर GPU चिप्स) लगे होते हैं, जो AI मॉडल को चलाते हैं. ये चिप्स बहुत ज्यादा बिजली खाते हैं.

AI की मांग इतनी तेजी से बढ़ रही है कि कंप्यूटिंग पावर (computing power) की कमी हो गई है. कंपनियां GPU किराए पर लेने के लिए भी ज्यादा पैसे दे रही हैं. उदाहरण के लिए, Nvidia के Blackwell चिप को एक घंटे के लिए किराए पर लेने की कीमत दो महीने पहले $2.75 थी, जो अब $4.08 हो गई है- यानी लगभग 48% बढ़ोतरी. पुराने H100 GPU की रेंटल कीमत भी 40% तक बढ़ चुकी है.

OpenAI और Anthropic जैसी कंपनियां इस कमी से जूझ रही हैं. Anthropic के Claude चैटबॉट में अक्सर आउटेज हो रहे हैं. पीक टाइम में वो यूजर्स को टोकन (AI में इस्तेमाल होने वाली यूनिट) की लिमिट लगा रहे हैं.

इतिहास में भी हुई हैं ऐसी दिक्कत
OpenAI ने अपना पॉपुलर Sora वीडियो जेनरेशन ऐप बंद कर दिया, ताकि कंप्यूटिंग रिसोर्स को नए AI मॉडल और एंटरप्राइज प्रोडक्ट्स के लिए बचाया जा सके. OpenAI के API में टोकन यूज अक्टूबर में 6 बिलियन प्रति मिनट से बढ़कर मार्च में 15 बिलियन प्रति मिनट हो गया. मांग इतनी तेज है कि इंफ्रास्ट्रक्चर तैयार करने की स्पीड उससे मैच नहीं कर पा रही. यह समस्या नई नहीं है. इतिहास में रेलवे, टेलीकॉम या इंटरनेट के बूम के समय भी ऐसी ही स्थिति आई थी- मांग संसाधनों से ज्यादा तेज बढ़ जाती है. AI में भी यही हो रहा है.

कंपनियां यूजर्स को आकर्षित करने के लिए प्रतिस्पर्धा कर रही हैं, इसलिए कीमतें बढ़ाना आसान नहीं. नतीजा? आउटेज, लिमिट और कुछ प्रोडक्ट्स को रोकना पड़ रहा है.

अब सबसे बड़ा सवाल- बिजली कितनी खर्च हो रही है?
एक साधारण ChatGPT जैसा प्रॉम्प्ट (टेक्स्ट जवाब) लगभग 0.3 से 0.34 वॉट-घंटे बिजली इस्तेमाल करता है. यह बहुत कम लगता है- एक LED बल्ब को कुछ मिनट चलाने जितना. लेकिन जब अरबों प्रॉम्प्ट रोजाना हो रहे हों, तो आंकड़ा विशाल हो जाता है.

डेटा सेंटर्स पहले से ही दुनिया की कुल बिजली का करीब 1.5% इस्तेमाल कर रहे हैं (लगभग 415 TWh सालाना). AI की वजह से यह मांग तेजी से बढ़ रही है. अनुमान है कि 2030 तक डेटा सेंटर्स की बिजली खपत दोगुनी या उससे ज्यादा हो सकती है.

अमेरिका में डेटा सेंटर्स पहले ही कुल बिजली का 4% इस्तेमाल कर रहे हैं, और AI वाले सर्वर का हिस्सा और बढ़ रहा है. एक बड़े AI डेटा सेंटर की बिजली खपत 1 लाख घरों जितनी हो सकती है. ट्रेनिंग (AI मॉडल को सिखाना) तो बहुत ज्यादा बिजली खाती है, लेकिन रोजाना इस्तेमाल (इन्फरेंस) भी कुल खपत का बड़ा हिस्सा बन रहा है. जितने ज्यादा यूजर्स AI एजेंट्स (जो खुद काम करते हैं) इस्तेमाल करेंगे, उतनी ही बिजली की जरूरत बढ़ेगी.

तो क्या इसका मतलब है AI छोड़ दें?
बिल्कुल नहीं. लेकिन हमें समझना चाहिए कि यह सुविधा मुफ्त नहीं है. यह पर्यावरण पर असर डाल रही है- ज्यादा बिजली का मतलब ज्यादा कोयला, गैस या रिन्यूएबल एनर्जी की जरूरत. कंपनियां खपत सुधार रही हैं, लेकिन मांग इतनी तेज है कि चुनौतियां बनी हुई हैं.

अगली बार जब आप कोई प्रॉम्प्ट डालें, तो याद रखें- पीछे एक पूरा इंफ्रास्ट्रक्चर बिजली खा रहा है. AI हमें प्रोडक्टिव बना रहा है, लेकिन सस्टेनेबल तरीके से इसका इस्तेमाल करना भी जरूरी है. भविष्य में बेहतर चिप्स, ग्रीन एनर्जी और स्मार्ट यूज से यह बैलेंस बन सकता है.



Source link

Nemish Agrawal
Nemish Agrawalhttps://tv1indianews.in
Tv Journalist • Editor • Writer Digital Creator • Photographer Travel Vlogger • Web-App Developer IT Cell • Social Worker

Latest articles

spot_imgspot_img

Related articles

Leave a reply

Please enter your comment!
Please enter your name here

spot_imgspot_img