
كشف باحث من جامعة أمستردام عن تفاصيل مثيرة حول استهلاك الطاقة من قبل مراكز بيانات الذكاء الاصطناعي. حيث تشير توقعاته إلى أن هذه المراكز قد تستهلك قريبًا نصف الطاقة المستخدمة عالميًا. أليكس دي فريس جاو، طالب دكتوراه في قسم الدراسات البيئية، أعد دراسة توضح كيف يمكن لمراكز بيانات الذكاء الاصطناعي استخدام طاقة هائلة للإجابة عن استفسارات المستخدمين.
ارتفاع ملحوظ في استهلاك الطاقة
تشير تقارير وكالة الطاقة الدولية إلى أن استهلاك مراكز البيانات من الطاقة قد يصل إلى 1.5% من الاستهلاك العالمي بحلول عام 2024. ويعزو دي فريس جاو هذا الارتفاع ليس فقط إلى معالجة استفسارات الذكاء الاصطناعي، ولكن أيضًا لأغراض تخزين البيانات ومعالجتها في مجالات مثل تعدين البيتكوين.
شوف كمان: باحثون يبتكرون نموذج LegoGPT لتصميم هياكل ثلاثية الأبعاد بسهولة
جهود تطوير برامج إدارة التعلم
أقر مطورو الأنظمة الذكية بأن تشغيل برامج إدارة التعلم مثل ChatGPT يتطلب موارد طاقة كبيرة. وقد بدأت بعض الشركات فعليًا في الاعتماد على مصادر الطاقة الخاصة بها لتلبية احتياجاتها المتزايدة.
ممكن يعجبك: توقعات بزيادة سعر آيفون 17 وفقًا لتقرير حديث
تقديرات مقلقة للعالم
عمل دي فريس جاو على جمع بيانات دقيقة عن استهلاك الطاقة استنادًا إلى تقارير شركات كبرى مثل إنفيديا. استخدم الأرقام المتاحة لتقدير كمية الكهرباء المستخدمة في عام 2023، حيث أظهرت حساباته أن الاستهلاك قد يصل إلى 82 تيراواط/ساعة، وهو ما يعادل الاستهلاك الكلي للطاقة في سويسرا. وإذا استمر الطلب على الذكاء الاصطناعي في الارتفاع، قد تصبح هذه التطبيقات مسؤولة عن نصف إجمالي الطاقة المستخدمة في مراكز البيانات على مستوى العالم.
تسليط الضوء على هذه التقديرات يُظهر الحاجة الملحة لاستكشاف سبل بديلة لتلبية الاحتياجات المتزايدة للطاقة التي تتطلبها تقنيات الذكاء الاصطناعي في المستقبل.