นานนับปีเรื่องราวของศูนย์ข้อมูลการใช้พลังงานเป็นไปตามส่วนโค้งที่คาดเดาได้ แน่นอนว่าการเปลี่ยนผ่านสู่ดิจิทัลมีการเติบโต แต่ประสิทธิภาพที่เพิ่มขึ้นจากเซิร์ฟเวอร์ การจำลองเสมือน และการรวมระบบคลาวด์ที่ดีขึ้น ทำให้การใช้ไฟฟ้าทั้งหมดคงที่อย่างน่าประหลาดใจ ความต้องการพลังงานของศูนย์ข้อมูลทั่วโลกอยู่ที่ประมาณ 1 เปอร์เซ็นต์ของการใช้ไฟฟ้าทั้งหมด หรือประมาณ 200 เทราวัตต์-ชั่วโมงต่อปี ในช่วงเวลาที่ดีขึ้นของทศวรรษ
ยุคนั้นกำลังจะสิ้นสุดลง
การบรรจบกันของ generative AI, การขุด cryptocurrency, การประมวลผลแบบ Edge และการเติบโตแบบก้าวกระโดดของอุปกรณ์ที่เชื่อมต่อได้ทำลายเส้นโค้งประสิทธิภาพแบบเก่า การประมาณการทางอุตสาหกรรมในปัจจุบันแสดงให้เห็นว่าความต้องการพลังงานของศูนย์ข้อมูลเพิ่มขึ้นในอัตรารายปีอย่างที่ไม่เคยพบเห็นมาก่อนนับตั้งแต่ช่วงต้นทศวรรษ 2000 ในบางภูมิภาค เช่น ไอร์แลนด์ เวอร์จิเนียตอนเหนือ สิงคโปร์ ศูนย์ข้อมูลมีสัดส่วนถึง 15 ถึง 25 เปอร์เซ็นต์ของการใช้ไฟฟ้าทั้งหมด ส่งผลให้หน่วยงานกำกับดูแลต้องระงับการก่อสร้างใหม่ชั่วคราว
เมื่อเทียบกับฉากหลังนี้ ตัวเลือกโครงสร้างพื้นฐานที่ครั้งหนึ่งเคยดูเหมือนเป็นรายละเอียดทางเทคนิค เช่น สถาปัตยกรรมการระบายความร้อน โทโพโลยีการจ่ายพลังงาน การวางแผนความหนาแน่นของชั้นวาง ได้กลายเป็นการตัดสินใจของห้องประชุม ต้นทุนพลังงานไม่ใช่รายการบรรทัดอีกต่อไป มันเป็นข้อจำกัดในการเติบโต
ประสิทธิผลการใช้พลังงานหรือ PUE เป็นตัวชี้วัดประสิทธิภาพมาตรฐานของอุตสาหกรรมศูนย์ข้อมูลมาเกือบสองทศวรรษ เป็นอัตราส่วนอย่างง่าย: กำลังงานทั้งหมดหารด้วยกำลังของอุปกรณ์ไอที
PUE ที่ 2.0 หมายความว่าสำหรับเซิร์ฟเวอร์และพื้นที่จัดเก็บข้อมูลทุก ๆ วัตต์ที่กำลังจ่ายไฟ อีกวัตต์หนึ่งจะไปที่การทำความเย็น แสงสว่าง การสูญเสียการแปลงพลังงาน และค่าใช้จ่ายอื่น ๆ PUE 1.2 หมายความว่าค่าโสหุ้ยกินไฟเพียง 0.2 วัตต์ต่อวัตต์ไอที
อุตสาหกรรมได้รับการยอมรับอย่างกว้างขวางตามระดับ PUE:
| ระดับ | ปือ | ดีซีอี | มันหมายถึงอะไร |
|---|---|---|---|
| แพลทินัม | <1.25 | >0.80 | ประสิทธิภาพระดับโลก โดยทั่วไปต้องใช้การระบายความร้อนฟรีหรือการระบายความร้อนด้วยของเหลว |
| ทอง | 1.25 – 1.43 | 0.70 – 0.80 | มีประสิทธิภาพมาก ทำได้ด้วยการออกแบบที่ทันสมัยในสภาพอากาศปานกลาง |
| เงิน | 1.43 – 1.67 | 0.60 – 0.70 | ยอมรับได้สำหรับสิ่งอำนวยความสะดวกเก่าหรือสภาพอากาศที่อบอุ่น |
| สีบรอนซ์ | 1.67 – 2.00 น | 0.50 – 0.60 | โดยทั่วไปสำหรับศูนย์ข้อมูลแบบเดิมที่ไม่มีการปรับปรุงแก้ไขครั้งใหญ่ |
| ยุติธรรม | 14.00 – 02.50 น | 0.40 – 0.50 | ประสิทธิภาพต่ำ ต้นทุนการดำเนินงานสูง |
| ยากจน | >2.50 | <0.40 | ความไม่มีประสิทธิภาพที่สำคัญ จะต้องได้รับการดูแลทันที |
ปัญหาคือหลายองค์กรไม่ทราบ PUE ของตนจริงๆ พวกเขาประมาณการ พวกเขาเดา หรือวัดเฉพาะที่มิเตอร์สาธารณูปโภคหลักและคิดส่วนที่เหลือ
จากการสำรวจอุตสาหกรรมในปี 2023 พบว่าเกือบ 40 เปอร์เซ็นต์ของผู้ให้บริการศูนย์ข้อมูลไม่เคยตรวจวัด PUE ที่ระดับแร็คเลย ในบรรดาผู้ที่ทำเช่นนั้น ส่วนต่างระหว่าง PUE ที่รายงานและจริงอยู่ที่ 0.3 จุด ซึ่งเพียงพอที่จะย้ายโรงงานจากระดับ Gold ไปสู่ Silver โดยไม่มีใครสังเกตเห็น
การทำความเข้าใจว่าเหตุใด PUE จึงแตกต่างกันอย่างมาก โดยเริ่มจากการดูว่าศูนย์ข้อมูลไฟฟ้าออกจากจุดไหน
ในสถานที่ระบายความร้อนด้วยอากาศโดยทั่วไปซึ่งมี PUE ประมาณ 1.8 การพังทลายจะมีลักษณะดังนี้:
โหลดการทำความเย็นเป็นตัวแปรที่ใหญ่ที่สุด สิ่งอำนวยความสะดวกในสภาพอากาศอบอุ่นซึ่งใช้อากาศภายนอกเพื่อการทำความเย็นฟรีอาจใช้เวลาเพียง 15 เปอร์เซ็นต์ของพลังงานที่ไม่ใช่ด้านไอทีในการทำความเย็น สถานที่เดียวกันในภูมิอากาศเขตร้อนที่มีการทำความเย็นด้วยกลไกตลอดทั้งปีอาจใช้เวลา 40 เปอร์เซ็นต์
นี่คือสาเหตุที่ผู้ให้บริการโคโลเคชั่นลงประกาศ PUE ที่ระดับสถานประกอบการ แต่ส่ง PUE ที่มิเตอร์ของลูกค้า ตัวเลขต่างกัน ความหมายต่างกัน ลูกค้าจ่ายเงินทั้งหมด
การจัดการศูนย์ข้อมูลแบบดั้งเดิมมีสภาพแวดล้อมที่ค่อนข้างคงที่ ชั้นวางเต็มเป็นเวลาหลายเดือนหรือหลายปี ความเย็นสามารถปรับได้ช้าๆ การกระจายกำลังมีขนาดใหญ่เกินไปตั้งแต่วันแรก
ยุคคลาวด์เปลี่ยนสมมติฐาน ตอนนี้ชั้นวางเต็มในจำนวนวัน ปริมาณงานจะเปลี่ยนไปตามเซิร์ฟเวอร์โดยอัตโนมัติ คลัสเตอร์ AI ความหนาแน่นสูงอาจดึงพลังของแร็คประมวลผลทั่วไปที่อยู่ติดกันถึงสามเท่า
การเปลี่ยนแปลงเหล่านี้บังคับให้ต้องคิดใหม่เกี่ยวกับการจัดการโครงสร้างพื้นฐาน แนวโน้มสามประการโดดเด่น
ประการแรก ความหนาแน่นเพิ่มขึ้นไม่สม่ำเสมอชั้นวางเซิร์ฟเวอร์มาตรฐานเมื่อหนึ่งทศวรรษที่แล้วใช้พลังงานได้ 5-8 กิโลวัตต์ ปัจจุบันชั้นวางอเนกประสงค์สามารถรับพลังงานได้ 10-15 กิโลวัตต์ แร็คการฝึกอบรมการประมวลผลและ AI ประสิทธิภาพสูงมักเกิน 30 กิโลวัตต์ต่อแร็คเป็นประจำ บางแห่งเกิน 50 กิโลวัตต์
สิ่งนี้สร้างความท้าทายในการจัดการระบายความร้อนที่การระบายความร้อนด้วยอากาศต้องดิ้นรนเพื่อแก้ไข ที่ 20 กิโลวัตต์ต่อแร็ค การระบายความร้อนด้วยอากาศยังคงมีประสิทธิภาพหากมีการกักเก็บที่เหมาะสม ที่ 30 กิโลวัตต์ มันจะกลายเป็นส่วนเพิ่ม ที่ 40 กิโลวัตต์ขึ้นไป การระบายความร้อนด้วยของเหลวจะเปลี่ยนจากอุปกรณ์เสริมไปเป็นความจำเป็น
ประการที่สอง การวางแผนกำลังการผลิตกลายเป็นสิ่งที่คาดการณ์ได้วิธีการแบบเก่า — ซื้อความจุเกินความจำเป็นและปล่อยให้นั่งเฉยๆ — จะไม่ได้ผลในวงกว้างอีกต่อไป กำลังการผลิตที่ไม่ได้ใช้งานมีทั้งต้นทุนเงินทุนและค่าบำรุงรักษาต่อเนื่อง
ระบบการจัดการโครงสร้างพื้นฐานสมัยใหม่ใช้ข้อมูลในอดีตและการคาดการณ์ปริมาณงานเพื่อคาดการณ์ว่าพลังงาน การทำความเย็น หรือพื้นที่แร็คจะหมดเมื่อใด ระบบที่ดีที่สุดสามารถแนะนำว่าควรกำหนดค่าความจุที่มีอยู่ใหม่หรือสั่งซื้อฮาร์ดแวร์ใหม่ หลายวันหรือหลายสัปดาห์ก่อนที่ข้อจำกัดจะมีความสำคัญ
ประการที่สาม ข้อกำหนดในการมองเห็นมีเช่นแพนศูนย์ข้อมูลแบบเดิมอาจติดตามพลังงานที่ระดับ PDU สิ่งอำนวยความสะดวกสมัยใหม่ต้องการการมองเห็นในระดับแร็ค บางครั้งในระดับเซิร์ฟเวอร์ และเพิ่มมากขึ้นในระดับเวิร์กโหลด โดยรู้ว่าเครื่องเสมือนหรือคอนเทนเนอร์ไดรฟ์ใดที่ดึงพลังงาน
โครงสร้างพื้นฐานศูนย์ข้อมูลซอฟต์แวร์การจัดการ (DCIM) มีมานานกว่าทศวรรษแล้ว แต่การนำไปใช้ยังคงไม่สม่ำเสมอ ศูนย์ข้อมูลระดับองค์กรไม่ถึงครึ่งใช้ระบบ DCIM เต็มรูปแบบ หลายคนที่ใช้ความสามารถเพียงเศษเสี้ยวเท่านั้น
ระบบ DCIM ที่ใช้งานอย่างเหมาะสมทำหน้าที่สี่สิ่ง:
การจัดการสินทรัพย์เซิร์ฟเวอร์ สวิตช์ PDU และหน่วยทำความเย็นทุกตัวจะถูกติดตามในฐานข้อมูลการจัดการการกำหนดค่า (CMDB) ตำแหน่ง ระดับพลังงาน การเชื่อมต่อเครือข่าย ประวัติการบำรุงรักษา — ทั้งหมดนี้ ฟังดูเป็นพื้นฐาน แต่หลายองค์กรยังคงติดตามเนื้อหาในสเปรดชีตที่ใช้เวลาหลายเดือนระหว่างการอัปเดต
การตรวจสอบแบบเรียลไทม์การดึงพลังงานที่ระดับ PDU หรือชั้นวาง อุณหภูมิและความชื้นที่จุดจ่ายไฟและจุดส่งคืน สถานะระบบทำความเย็น ความสมบูรณ์ของแบตเตอรี่ของ UPS สัญญาณเตือนจะทริกเกอร์เมื่อพารามิเตอร์เบี่ยงเบนไปจากค่าที่ตั้งไว้ เป้าหมายคือการตรวจจับปัญหาก่อนที่จะทำให้เกิดการหยุดทำงาน
การวางแผนกำลังการผลิตระบบจะรู้ว่ามีพลังงานและความเย็นเหลืออยู่เท่าใด มีการใช้งานมากเพียงใด และสงวนไว้สำหรับการใช้งานในอนาคตเป็นจำนวนเท่าใด โดยสามารถสร้างแบบจำลองผลกระทบของการเพิ่มแร็คความหนาแน่นสูงใหม่หรือเลิกใช้ชุดเซิร์ฟเวอร์รุ่นเก่า
การแสดงภาพแฝดดิจิทัลของศูนย์ข้อมูล - ทีละชั้น ทีละแผ่น - แสดงสภาพปัจจุบันและช่วยให้ผู้ปฏิบัติงานสามารถจำลองการเปลี่ยนแปลงได้ เพิ่มภาระอีก 10 กิโลวัตต์ในแถวที่สาม คอลัมน์ที่สี่ เกินความสามารถในการทำความเย็นหรือไม่ ระบบตอบก่อนใครขนย้ายอุปกรณ์
การตัดการใช้พลังงานของศูนย์ข้อมูลไม่ใช่เรื่องลึกลับ วิธีการต่าง ๆ เป็นที่เข้าใจกันดี ความท้าทายคือวินัยในการปฏิบัติ
เพิ่มอุณหภูมิอากาศจ่ายศูนย์ข้อมูลส่วนใหญ่จะเย็นอยู่ที่ 18 ถึง 20 องศาเซลเซียสที่หน่วยทำความเย็นกลับมา เพราะนั่นคือสิ่งที่ผู้ปฏิบัติงานทำมาตลอด แนวทางปฏิบัติของ ASHRAE แนะนำให้อยู่ที่ 24 ถึง 27 องศา การเพิ่มทุกระดับจะลดพลังงานความเย็นลงประมาณ 4 เปอร์เซ็นต์ การทำงานที่อุณหภูมิ 26 องศา แทนที่จะเป็น 20 องศา ช่วยประหยัดพลังงานความเย็นได้ 20-25 เปอร์เซ็นต์
กำจัดการผสมอากาศร้อนและเย็นส่วนกั้นทางเดินร้อน ส่วนกั้นทางเดินเย็น หรือท่อระบายอากาศแนวตั้งบังคับให้อากาศเย็นไปยังจุดที่ต้องการ แทนที่จะหมุนเวียนสั้น ๆ ผ่านด้านหน้าของชั้นวาง โดยทั่วไปการกักเก็บเพียงอย่างเดียวจะช่วยลดพลังงานความเย็นลงได้ 15-25 เปอร์เซ็นต์
ใช้ไดรฟ์ความเร็วตัวแปรพัดลมและปั๊มที่มีความเร็วคงที่จะสิ้นเปลืองพลังงานที่โหลดบางส่วน ไดรฟ์ความเร็วตัวแปรปรับการไหลของอากาศและการไหลของน้ำตามความต้องการที่แท้จริง โดยทั่วไประยะเวลาคืนทุนสำหรับการติดตั้งเพิ่มคือ 1-3 ปี
เพิ่มประสิทธิภาพการทำงานของ UPSระบบ UPS ส่วนใหญ่ทำงานในโหมดการแปลงสองครั้งอย่างต่อเนื่อง — แปลง AC เป็น DC และกลับเป็น AC แม้ว่าไฟฟ้าจากอาคารจะสะอาดก็ตาม ระบบ UPS สมัยใหม่สามารถเปลี่ยนไปใช้โหมดประหยัดพลังงานได้เมื่อคุณภาพไฟฟ้าเอื้ออำนวย โดยบรรลุประสิทธิภาพ 99 เปอร์เซ็นต์ แทนที่จะเป็น 94-96 เปอร์เซ็นต์ ข้อเสียคือใช้เวลาถ่ายโอนสั้น ๆ ไปยังแบตเตอรี่หากไฟฟ้าดับ สำหรับโหลดด้านไอทีที่มีแหล่งจ่ายไฟที่ออกแบบมาเพื่อการถ่ายโอนดังกล่าว ความเสี่ยงจะมีน้อยมาก
ใช้การกระจายแรงดันไฟฟ้าที่สูงกว่าการกระจายพลังงานที่ 415V แทน 208V ช่วยลดการสูญเสียการกระจายลงประมาณ 25 เปอร์เซ็นต์ สิ่งนี้ต้องใช้ PDU และอุปกรณ์จ่ายไฟของเซิร์ฟเวอร์ที่เข้ากันได้ แต่มีอุปกรณ์สมัยใหม่จำนวนมากรองรับ
บริษัทซ่างหยู CPSYซึ่งเป็นองค์กรเทคโนโลยีขั้นสูงที่มุ่งเน้นโครงสร้างพื้นฐานศูนย์ข้อมูล รายงาน PUE ที่ 1.3 สำหรับโซลูชันศูนย์ข้อมูลแบบโมดูลาร์ ซึ่งจะทำให้บริษัทอยู่ในระดับ Gold และก้าวไปสู่ระดับ Platinum
การประหยัดพลังงานที่อ้างว่าสามารถประหยัดพลังงานได้ 25 เปอร์เซ็นต์เมื่อเทียบกับการออกแบบทั่วไปนั้นมาจากหลายปัจจัย ระบบ UPS แบบโมดูลาร์ที่มีประสิทธิภาพ 97.4 เปอร์เซ็นต์ในระดับระบบช่วยลดการสูญเสียในการกระจายซึ่งหากไม่เช่นนั้นจะทำงานถึง 15-20 เปอร์เซ็นต์ เครื่องปรับอากาศที่มีความแม่นยำพร้อมคอมเพรสเซอร์แบบปรับความเร็วได้และพัดลม EC จะปรับเอาต์พุตการระบายความร้อนให้ตรงกับภาระความร้อนจริง แทนที่จะทำงานที่ความจุคงที่ และรูปแบบทางกายภาพ — ที่เก็บทางเดินร้อน ระยะห่างระหว่างชั้นวางที่เหมาะสม พื้นยกสูงด้วยกระเบื้องที่มีรูพรุนขนาดเหมาะสม — จัดการกับการจัดการการไหลเวียนของอากาศที่บ่อนทำลายสิ่งอำนวยความสะดวกที่มีประสิทธิภาพหลายอย่าง
ผลงานการรับรองของบริษัทประกอบด้วย ISO 9001 (การจัดการคุณภาพ) และ ISO 27001 (การจัดการความปลอดภัยของข้อมูล) การใช้งานของลูกค้าประกอบด้วยความร่วมมือกับ Huawei, ZTE และ Inspur โดยมีการติดตั้งเพื่อการส่งออกในสหรัฐอเมริกา สหราชอาณาจักร เยอรมนี ฝรั่งเศส และออสเตรเลีย
หลายปีที่ผ่านมา การระบายความร้อนด้วยของเหลวเป็นเทคโนโลยีเฉพาะสำหรับศูนย์ซูเปอร์คอมพิวเตอร์ นั่นกำลังเปลี่ยนแปลงอย่างรวดเร็ว
คลัสเตอร์การฝึกฝน AI ที่ใช้ NVIDIA H100 หรือ B200 GPU ที่กำลังจะเปิดตัวจะสร้างพลังงานได้ 30-50 กิโลวัตต์ต่อแร็คในรูปแบบระบายความร้อนด้วยอากาศล้วนๆ ที่ความหนาแน่นเหล่านี้ การระบายความร้อนของอากาศต้องใช้อัตราการไหลของอากาศสูง ไม่ว่าจะเป็นพัดลมที่ดัง ชั้นวางลึก และยังคงมีการควบคุมความร้อนเพียงเล็กน้อย
การระบายความร้อนด้วยของเหลวโดยตรงไปยังชิปช่วยขจัดความร้อนที่แหล่งกำเนิดได้ 60-80 เปอร์เซ็นต์ ชิปทำงานเย็นลง พัดลมทำงานช้าลง เครื่องปรับอากาศในห้องจะจัดการเฉพาะความร้อนที่เหลืออยู่จากแหล่งจ่ายไฟ หน่วยความจำ และส่วนประกอบอื่นๆ
ประสิทธิภาพที่เพิ่มขึ้นเป็นอย่างมาก สิ่งอำนวยความสะดวกที่มีการระบายความร้อนโดยตรงไปยังชิปรายงานค่า PUE 1.1 ถึง 1.2 ข้อดีข้อเสียได้แก่ ต้นทุนเงินทุนที่สูงขึ้น การจัดการการรั่วไหลที่ซับซ้อนมากขึ้น และความจำเป็นในการบำบัดน้ำระดับโรงงาน
การระบายความร้อนแบบแช่เต็มรูปแบบ — จุ่มเซิร์ฟเวอร์ทั้งหมดลงในของเหลวอิเล็กทริก — ดัน PUE ต่ำกว่า 1.1 แต่ยังคงความพิเศษไว้ ศูนย์ข้อมูลเชิงพาณิชย์ส่วนใหญ่จะใช้การระบายความร้อนโดยตรงไปยังชิปก่อน จากนั้นจึงแช่ลงในโซนที่มีความหนาแน่นสูงเฉพาะในภายหลัง
แพลตฟอร์มศูนย์ข้อมูล SHANGYU มีข้อกำหนดสำหรับสถาปัตยกรรมระบายความร้อนด้วยอากาศและของเหลว โดยตระหนักว่าการใช้งานที่มีความหนาแน่นสูงในอนาคตจะต้องมีการจัดการระบายความร้อนโดยใช้ของเหลว โดยไม่คำนึงถึงการออกแบบสิ่งอำนวยความสะดวก
ทีมปฏิบัติการศูนย์ข้อมูลส่วนใหญ่ยังคงทำงานเชิงโต้ตอบ เสียงปลุกดังขึ้น มีคนสอบสวน มีการนำการแก้ไขไปใช้ วงจรซ้ำแล้วซ้ำอีก
การเปลี่ยนไปใช้การจัดการเชิงคาดการณ์ต้องใช้ความสามารถสามประการที่หลายองค์กรยังขาด
กรอกข้อมูลการกำหนดค่าให้ครบถ้วนการรู้ว่ามีอะไรอยู่ในศูนย์ข้อมูล — ทุกเซิร์ฟเวอร์, ทุกสวิตช์, ทุก PDU, ทุกหน่วยทำความเย็น — คือรากฐาน หากไม่มีข้อมูล CMDB ที่แม่นยำ การวางแผนกำลังการผลิตก็เป็นเพียงการคาดเดา
การตรวจวัดระยะไกลแบบละเอียดการวัดพลังงานระดับแร็คเป็นค่าขั้นต่ำ การวัดพลังงานต่อเซิร์ฟเวอร์จะดีกว่า การระบุแหล่งที่มาของพลังงานระดับภาระงานดีที่สุดแต่ทำได้ยากที่สุด
การวิเคราะห์ที่แยกสัญญาณออกจากสัญญาณรบกวนอุณหภูมิที่เพิ่มขึ้นอย่างรวดเร็วที่แร็คหนึ่งอาจส่งผลให้พัดลมเสีย อุณหภูมิที่เพิ่มขึ้นอย่างรวดเร็วทั่วทั้งศูนย์ข้อมูลครึ่งหนึ่งอาจส่งผลให้เครื่องทำความเย็นทำงานล้มเหลว ระบบจำเป็นต้องสร้างความแตกต่างและแนะนำการตอบสนองตามนั้น
แพลตฟอร์ม DCIM จาก SHANGYU ให้การสนับสนุนอุปกรณ์ SNMP และ Modbus อินเทอร์เฟซแอปพลิเคชันบนเว็บและ Windows และการบูรณาการกับกล้องเครือข่ายสำหรับการถ่ายภาพที่กระตุ้นเหตุการณ์ เป้าหมายที่ระบุไว้นั้นตรงไปตรงมา: ลดเวลาหยุดทำงานที่มีค่าใช้จ่าย ลดต้นทุนการดำเนินงานรายวันผ่านการควบคุมสิ่งแวดล้อมที่สมบูรณ์ และปรับปรุงการมองเห็นของฝ่ายบริหารและความสามารถในการตรวจสอบย้อนกลับ
การใช้พลังงานของศูนย์ข้อมูลคิดเป็นประมาณ 1 เปอร์เซ็นต์ของความต้องการไฟฟ้าทั่วโลก ตัวเลขนั้นฟังดูน้อยจนเข้ากัน ซึ่งเทียบเท่ากับปริมาณการใช้ไฟฟ้าโดยรวมของสหราชอาณาจักรโดยประมาณ
ที่สำคัญอัตราการเติบโตกำลังเร่งตัวขึ้น การคาดการณ์ทางอุตสาหกรรมแสดงให้เห็นว่าความต้องการพลังงานของศูนย์ข้อมูลเพิ่มขึ้นร้อยละ 10-15 ต่อปีจนถึงปี 2030 โดยได้รับแรงหนุนจาก AI การใช้ระบบคลาวด์ และการขยายตัวอย่างต่อเนื่องของอุปกรณ์ที่เชื่อมต่อ ในอัตราดังกล่าว ศูนย์ข้อมูลจะใช้ไฟฟ้าร้อยละ 3-4 ของทั่วโลกภายในสิ้นทศวรรษนี้
ประสิทธิภาพที่เพิ่มขึ้นซึ่งทำให้การใช้พลังงานคงที่ตลอดทศวรรษที่ผ่านมามาจากการจำลองเสมือนของเซิร์ฟเวอร์ (ลดจำนวนเซิร์ฟเวอร์ทางกายภาพ) ประสิทธิภาพของไดรฟ์ที่ได้รับการปรับปรุง (ย้ายจากดิสก์ที่หมุนไปเป็น SSD) และการใช้งานการระบายความร้อนฟรีในวงกว้าง (โดยใช้อากาศภายนอกแทนการทำความเย็นเชิงกล) ผลไม้แขวนต่ำเหล่านั้นถูกเก็บมามาก
คลื่นลูกใหม่ของประสิทธิภาพจะมาจากการระบายความร้อนด้วยของเหลว การกระจายแรงดันไฟฟ้าที่สูงขึ้น การควบคุมการระบายความร้อนที่ปรับให้เหมาะสมโดย AI และบางทีอาจสำคัญที่สุด การจัดตำแหน่งที่ดีขึ้นระหว่างความจุของโครงสร้างพื้นฐานและโหลดไอทีจริง ส่วนสุดท้ายนั้นต้องการการมองเห็นแบบเรียลไทม์และการวิเคราะห์เชิงคาดการณ์ที่ระบบ DCIM มอบให้ แต่มีโรงงานเพียงไม่กี่แห่งเท่านั้นที่ใช้งานได้เต็มรูปแบบ
คุณทราบ PUE ที่แท้จริงของคุณ ไม่ใช่หมายเลขบนแผ่นข้อมูลจำเพาะหรือไม่หากคุณไม่ได้วัดที่เอาท์พุตของ UPS และที่อินพุตของอุปกรณ์ไอที แสดงว่าคุณไม่รู้ ความแตกต่างคือค่าใช้จ่ายที่แท้จริงของคุณ
ระบบทำความเย็นของคุณต่อสู้กันเองหรือไม่?ในศูนย์ข้อมูลหลายแห่ง หน่วย CRAC ได้รับการตั้งค่าให้มีแถบอุณหภูมิและความชื้นทับซ้อนกัน หน่วยหนึ่งลดความชื้น ในขณะที่อีกหน่วยหนึ่งทำความชื้น อันหนึ่งเย็นลงในขณะที่อีกอันอุ่นอีกครั้ง นี่ไม่ใช่เรื่องผิดปกติ ก็ไม่มีประสิทธิภาพเช่นกัน
การดึงพลังงานที่ไม่ได้ใช้งานของเซิร์ฟเวอร์ของคุณคืออะไร?ข้อมูลอุตสาหกรรมแสดงให้เห็นว่าเซิร์ฟเวอร์ระดับองค์กรทั่วไปจะดึงพลังงานสูงสุด 30-40 เปอร์เซ็นต์เมื่อไม่ทำอะไรเลย การปิดเครื่องหรือพักเซิร์ฟเวอร์ที่ไม่ได้ใช้คือการวัดประสิทธิภาพ ROI สูงสุดที่มีอยู่ ก็ยังเป็นสิ่งที่ถูกมองข้ามมากที่สุดเช่นกัน
คุณสามารถเพิ่มอุณหภูมิอากาศจ่ายของคุณขึ้นสององศาโดยไม่ละเมิดข้อกำหนดของอุปกรณ์ได้หรือไม่?น่าจะใช่ อุปกรณ์ส่วนใหญ่ได้รับการจัดอันดับสำหรับอุณหภูมิไอดี 25-27 องศา ศูนย์ข้อมูลส่วนใหญ่ทำงานที่อุณหภูมิ 20-22 องศา ช่องว่างหกองศานั้นแสดงถึงพลังงานความเย็นที่ไม่จำเป็นนานหลายปี
คุณตรวจสอบประสิทธิภาพของ UPS ครั้งสุดท้ายเมื่อใดประสิทธิภาพของแผ่นป้ายจะถูกวัดที่โหลดเต็มพร้อมตัวประกอบกำลังที่สมบูรณ์แบบ ประสิทธิภาพในโลกแห่งความเป็นจริงที่โหลดบางส่วนพร้อมตัวประกอบกำลังในโลกแห่งความเป็นจริงสามารถลดลงได้ 5-10 จุด