ศูนย์ข้อมูลกินพลังงานมากกว่าที่ใครๆ คาดไว้ อุตสาหกรรมกำลังแข่งขันกันเพื่อตามให้ทัน

นานนับปีเรื่องราวของศูนย์ข้อมูลการใช้พลังงานเป็นไปตามส่วนโค้งที่คาดเดาได้ แน่นอนว่าการเปลี่ยนผ่านสู่ดิจิทัลมีการเติบโต แต่ประสิทธิภาพที่เพิ่มขึ้นจากเซิร์ฟเวอร์ การจำลองเสมือน และการรวมระบบคลาวด์ที่ดีขึ้น ทำให้การใช้ไฟฟ้าทั้งหมดคงที่อย่างน่าประหลาดใจ ความต้องการพลังงานของศูนย์ข้อมูลทั่วโลกอยู่ที่ประมาณ 1 เปอร์เซ็นต์ของการใช้ไฟฟ้าทั้งหมด หรือประมาณ 200 เทราวัตต์-ชั่วโมงต่อปี ในช่วงเวลาที่ดีขึ้นของทศวรรษ

ยุคนั้นกำลังจะสิ้นสุดลง

การบรรจบกันของ generative AI, การขุด cryptocurrency, การประมวลผลแบบ Edge และการเติบโตแบบก้าวกระโดดของอุปกรณ์ที่เชื่อมต่อได้ทำลายเส้นโค้งประสิทธิภาพแบบเก่า การประมาณการทางอุตสาหกรรมในปัจจุบันแสดงให้เห็นว่าความต้องการพลังงานของศูนย์ข้อมูลเพิ่มขึ้นในอัตรารายปีอย่างที่ไม่เคยพบเห็นมาก่อนนับตั้งแต่ช่วงต้นทศวรรษ 2000 ในบางภูมิภาค เช่น ไอร์แลนด์ เวอร์จิเนียตอนเหนือ สิงคโปร์ ศูนย์ข้อมูลมีสัดส่วนถึง 15 ถึง 25 เปอร์เซ็นต์ของการใช้ไฟฟ้าทั้งหมด ส่งผลให้หน่วยงานกำกับดูแลต้องระงับการก่อสร้างใหม่ชั่วคราว

เมื่อเทียบกับฉากหลังนี้ ตัวเลือกโครงสร้างพื้นฐานที่ครั้งหนึ่งเคยดูเหมือนเป็นรายละเอียดทางเทคนิค เช่น สถาปัตยกรรมการระบายความร้อน โทโพโลยีการจ่ายพลังงาน การวางแผนความหนาแน่นของชั้นวาง ได้กลายเป็นการตัดสินใจของห้องประชุม ต้นทุนพลังงานไม่ใช่รายการบรรทัดอีกต่อไป มันเป็นข้อจำกัดในการเติบโต


ตัวชี้วัดง่ายๆ ที่เปลี่ยนแปลงทุกสิ่ง

ประสิทธิผลการใช้พลังงานหรือ PUE เป็นตัวชี้วัดประสิทธิภาพมาตรฐานของอุตสาหกรรมศูนย์ข้อมูลมาเกือบสองทศวรรษ เป็นอัตราส่วนอย่างง่าย: กำลังงานทั้งหมดหารด้วยกำลังของอุปกรณ์ไอที

PUE ที่ 2.0 หมายความว่าสำหรับเซิร์ฟเวอร์และพื้นที่จัดเก็บข้อมูลทุก ๆ วัตต์ที่กำลังจ่ายไฟ อีกวัตต์หนึ่งจะไปที่การทำความเย็น แสงสว่าง การสูญเสียการแปลงพลังงาน และค่าใช้จ่ายอื่น ๆ PUE 1.2 หมายความว่าค่าโสหุ้ยกินไฟเพียง 0.2 วัตต์ต่อวัตต์ไอที

อุตสาหกรรมได้รับการยอมรับอย่างกว้างขวางตามระดับ PUE:

ระดับ ปือ ดีซีอี มันหมายถึงอะไร
แพลทินัม <1.25 >0.80 ประสิทธิภาพระดับโลก โดยทั่วไปต้องใช้การระบายความร้อนฟรีหรือการระบายความร้อนด้วยของเหลว
ทอง 1.25 – 1.43 0.70 – 0.80 มีประสิทธิภาพมาก ทำได้ด้วยการออกแบบที่ทันสมัยในสภาพอากาศปานกลาง
เงิน 1.43 – 1.67 0.60 – 0.70 ยอมรับได้สำหรับสิ่งอำนวยความสะดวกเก่าหรือสภาพอากาศที่อบอุ่น
สีบรอนซ์ 1.67 – 2.00 น 0.50 – 0.60 โดยทั่วไปสำหรับศูนย์ข้อมูลแบบเดิมที่ไม่มีการปรับปรุงแก้ไขครั้งใหญ่
ยุติธรรม 14.00 – 02.50 น 0.40 – 0.50 ประสิทธิภาพต่ำ ต้นทุนการดำเนินงานสูง
ยากจน >2.50 <0.40 ความไม่มีประสิทธิภาพที่สำคัญ จะต้องได้รับการดูแลทันที

ปัญหาคือหลายองค์กรไม่ทราบ PUE ของตนจริงๆ พวกเขาประมาณการ พวกเขาเดา หรือวัดเฉพาะที่มิเตอร์สาธารณูปโภคหลักและคิดส่วนที่เหลือ

จากการสำรวจอุตสาหกรรมในปี 2023 พบว่าเกือบ 40 เปอร์เซ็นต์ของผู้ให้บริการศูนย์ข้อมูลไม่เคยตรวจวัด PUE ที่ระดับแร็คเลย ในบรรดาผู้ที่ทำเช่นนั้น ส่วนต่างระหว่าง PUE ที่รายงานและจริงอยู่ที่ 0.3 จุด ซึ่งเพียงพอที่จะย้ายโรงงานจากระดับ Gold ไปสู่ ​​Silver โดยไม่มีใครสังเกตเห็น

พลังจะไปอยู่ที่ไหนจริงๆ

การทำความเข้าใจว่าเหตุใด PUE จึงแตกต่างกันอย่างมาก โดยเริ่มจากการดูว่าศูนย์ข้อมูลไฟฟ้าออกจากจุดไหน

ในสถานที่ระบายความร้อนด้วยอากาศโดยทั่วไปซึ่งมี PUE ประมาณ 1.8 การพังทลายจะมีลักษณะดังนี้:

  • อุปกรณ์ไอที (เซิร์ฟเวอร์, ที่เก็บข้อมูล, ระบบเครือข่าย): 55-60 เปอร์เซ็นต์
  • การทำความเย็น (หน่วย CRAC/CRAH, ชิลเลอร์, ปั๊ม, เครื่องทำความเย็นแบบแห้ง): 30-35 เปอร์เซ็นต์
  • การจ่ายไฟ (UPS, หม้อแปลง, การสูญเสีย PDU): 5-8 เปอร์เซ็นต์
  • ปริมาณแสงสว่างและสิ่งอำนวยความสะดวกอื่น ๆ : 2-4 เปอร์เซ็นต์

โหลดการทำความเย็นเป็นตัวแปรที่ใหญ่ที่สุด สิ่งอำนวยความสะดวกในสภาพอากาศอบอุ่นซึ่งใช้อากาศภายนอกเพื่อการทำความเย็นฟรีอาจใช้เวลาเพียง 15 เปอร์เซ็นต์ของพลังงานที่ไม่ใช่ด้านไอทีในการทำความเย็น สถานที่เดียวกันในภูมิอากาศเขตร้อนที่มีการทำความเย็นด้วยกลไกตลอดทั้งปีอาจใช้เวลา 40 เปอร์เซ็นต์

นี่คือสาเหตุที่ผู้ให้บริการโคโลเคชั่นลงประกาศ PUE ที่ระดับสถานประกอบการ แต่ส่ง PUE ที่มิเตอร์ของลูกค้า ตัวเลขต่างกัน ความหมายต่างกัน ลูกค้าจ่ายเงินทั้งหมด

การเปลี่ยนแปลงจากโครงสร้างพื้นฐานแบบเดิมไปสู่โครงสร้างพื้นฐานระดับคลาวด์

การจัดการศูนย์ข้อมูลแบบดั้งเดิมมีสภาพแวดล้อมที่ค่อนข้างคงที่ ชั้นวางเต็มเป็นเวลาหลายเดือนหรือหลายปี ความเย็นสามารถปรับได้ช้าๆ การกระจายกำลังมีขนาดใหญ่เกินไปตั้งแต่วันแรก

ยุคคลาวด์เปลี่ยนสมมติฐาน ตอนนี้ชั้นวางเต็มในจำนวนวัน ปริมาณงานจะเปลี่ยนไปตามเซิร์ฟเวอร์โดยอัตโนมัติ คลัสเตอร์ AI ความหนาแน่นสูงอาจดึงพลังของแร็คประมวลผลทั่วไปที่อยู่ติดกันถึงสามเท่า

การเปลี่ยนแปลงเหล่านี้บังคับให้ต้องคิดใหม่เกี่ยวกับการจัดการโครงสร้างพื้นฐาน แนวโน้มสามประการโดดเด่น

ประการแรก ความหนาแน่นเพิ่มขึ้นไม่สม่ำเสมอชั้นวางเซิร์ฟเวอร์มาตรฐานเมื่อหนึ่งทศวรรษที่แล้วใช้พลังงานได้ 5-8 กิโลวัตต์ ปัจจุบันชั้นวางอเนกประสงค์สามารถรับพลังงานได้ 10-15 กิโลวัตต์ แร็คการฝึกอบรมการประมวลผลและ AI ประสิทธิภาพสูงมักเกิน 30 กิโลวัตต์ต่อแร็คเป็นประจำ บางแห่งเกิน 50 กิโลวัตต์

สิ่งนี้สร้างความท้าทายในการจัดการระบายความร้อนที่การระบายความร้อนด้วยอากาศต้องดิ้นรนเพื่อแก้ไข ที่ 20 กิโลวัตต์ต่อแร็ค การระบายความร้อนด้วยอากาศยังคงมีประสิทธิภาพหากมีการกักเก็บที่เหมาะสม ที่ 30 กิโลวัตต์ มันจะกลายเป็นส่วนเพิ่ม ที่ 40 กิโลวัตต์ขึ้นไป การระบายความร้อนด้วยของเหลวจะเปลี่ยนจากอุปกรณ์เสริมไปเป็นความจำเป็น

ประการที่สอง การวางแผนกำลังการผลิตกลายเป็นสิ่งที่คาดการณ์ได้วิธีการแบบเก่า — ซื้อความจุเกินความจำเป็นและปล่อยให้นั่งเฉยๆ — จะไม่ได้ผลในวงกว้างอีกต่อไป กำลังการผลิตที่ไม่ได้ใช้งานมีทั้งต้นทุนเงินทุนและค่าบำรุงรักษาต่อเนื่อง

ระบบการจัดการโครงสร้างพื้นฐานสมัยใหม่ใช้ข้อมูลในอดีตและการคาดการณ์ปริมาณงานเพื่อคาดการณ์ว่าพลังงาน การทำความเย็น หรือพื้นที่แร็คจะหมดเมื่อใด ระบบที่ดีที่สุดสามารถแนะนำว่าควรกำหนดค่าความจุที่มีอยู่ใหม่หรือสั่งซื้อฮาร์ดแวร์ใหม่ หลายวันหรือหลายสัปดาห์ก่อนที่ข้อจำกัดจะมีความสำคัญ

ประการที่สาม ข้อกำหนดในการมองเห็นมีเช่นแพนศูนย์ข้อมูลแบบเดิมอาจติดตามพลังงานที่ระดับ PDU สิ่งอำนวยความสะดวกสมัยใหม่ต้องการการมองเห็นในระดับแร็ค บางครั้งในระดับเซิร์ฟเวอร์ และเพิ่มมากขึ้นในระดับเวิร์กโหลด โดยรู้ว่าเครื่องเสมือนหรือคอนเทนเนอร์ไดรฟ์ใดที่ดึงพลังงาน

เลเยอร์ DCIM: จริงๆ แล้วมันทำอะไรได้บ้าง

โครงสร้างพื้นฐานศูนย์ข้อมูลซอฟต์แวร์การจัดการ (DCIM) มีมานานกว่าทศวรรษแล้ว แต่การนำไปใช้ยังคงไม่สม่ำเสมอ ศูนย์ข้อมูลระดับองค์กรไม่ถึงครึ่งใช้ระบบ DCIM เต็มรูปแบบ หลายคนที่ใช้ความสามารถเพียงเศษเสี้ยวเท่านั้น

ระบบ DCIM ที่ใช้งานอย่างเหมาะสมทำหน้าที่สี่สิ่ง:

การจัดการสินทรัพย์เซิร์ฟเวอร์ สวิตช์ PDU และหน่วยทำความเย็นทุกตัวจะถูกติดตามในฐานข้อมูลการจัดการการกำหนดค่า (CMDB) ตำแหน่ง ระดับพลังงาน การเชื่อมต่อเครือข่าย ประวัติการบำรุงรักษา — ทั้งหมดนี้ ฟังดูเป็นพื้นฐาน แต่หลายองค์กรยังคงติดตามเนื้อหาในสเปรดชีตที่ใช้เวลาหลายเดือนระหว่างการอัปเดต

การตรวจสอบแบบเรียลไทม์การดึงพลังงานที่ระดับ PDU หรือชั้นวาง อุณหภูมิและความชื้นที่จุดจ่ายไฟและจุดส่งคืน สถานะระบบทำความเย็น ความสมบูรณ์ของแบตเตอรี่ของ UPS สัญญาณเตือนจะทริกเกอร์เมื่อพารามิเตอร์เบี่ยงเบนไปจากค่าที่ตั้งไว้ เป้าหมายคือการตรวจจับปัญหาก่อนที่จะทำให้เกิดการหยุดทำงาน

การวางแผนกำลังการผลิตระบบจะรู้ว่ามีพลังงานและความเย็นเหลืออยู่เท่าใด มีการใช้งานมากเพียงใด และสงวนไว้สำหรับการใช้งานในอนาคตเป็นจำนวนเท่าใด โดยสามารถสร้างแบบจำลองผลกระทบของการเพิ่มแร็คความหนาแน่นสูงใหม่หรือเลิกใช้ชุดเซิร์ฟเวอร์รุ่นเก่า

การแสดงภาพแฝดดิจิทัลของศูนย์ข้อมูล - ทีละชั้น ทีละแผ่น - แสดงสภาพปัจจุบันและช่วยให้ผู้ปฏิบัติงานสามารถจำลองการเปลี่ยนแปลงได้ เพิ่มภาระอีก 10 กิโลวัตต์ในแถวที่สาม คอลัมน์ที่สี่ เกินความสามารถในการทำความเย็นหรือไม่ ระบบตอบก่อนใครขนย้ายอุปกรณ์

คณิตศาสตร์ประสิทธิภาพที่ใช้งานได้จริง

การตัดการใช้พลังงานของศูนย์ข้อมูลไม่ใช่เรื่องลึกลับ วิธีการต่าง ๆ เป็นที่เข้าใจกันดี ความท้าทายคือวินัยในการปฏิบัติ

เพิ่มอุณหภูมิอากาศจ่ายศูนย์ข้อมูลส่วนใหญ่จะเย็นอยู่ที่ 18 ถึง 20 องศาเซลเซียสที่หน่วยทำความเย็นกลับมา เพราะนั่นคือสิ่งที่ผู้ปฏิบัติงานทำมาตลอด แนวทางปฏิบัติของ ASHRAE แนะนำให้อยู่ที่ 24 ถึง 27 องศา การเพิ่มทุกระดับจะลดพลังงานความเย็นลงประมาณ 4 เปอร์เซ็นต์ การทำงานที่อุณหภูมิ 26 องศา แทนที่จะเป็น 20 องศา ช่วยประหยัดพลังงานความเย็นได้ 20-25 เปอร์เซ็นต์

กำจัดการผสมอากาศร้อนและเย็นส่วนกั้นทางเดินร้อน ส่วนกั้นทางเดินเย็น หรือท่อระบายอากาศแนวตั้งบังคับให้อากาศเย็นไปยังจุดที่ต้องการ แทนที่จะหมุนเวียนสั้น ๆ ผ่านด้านหน้าของชั้นวาง โดยทั่วไปการกักเก็บเพียงอย่างเดียวจะช่วยลดพลังงานความเย็นลงได้ 15-25 เปอร์เซ็นต์

ใช้ไดรฟ์ความเร็วตัวแปรพัดลมและปั๊มที่มีความเร็วคงที่จะสิ้นเปลืองพลังงานที่โหลดบางส่วน ไดรฟ์ความเร็วตัวแปรปรับการไหลของอากาศและการไหลของน้ำตามความต้องการที่แท้จริง โดยทั่วไประยะเวลาคืนทุนสำหรับการติดตั้งเพิ่มคือ 1-3 ปี

เพิ่มประสิทธิภาพการทำงานของ UPSระบบ UPS ส่วนใหญ่ทำงานในโหมดการแปลงสองครั้งอย่างต่อเนื่อง — แปลง AC เป็น DC และกลับเป็น AC แม้ว่าไฟฟ้าจากอาคารจะสะอาดก็ตาม ระบบ UPS สมัยใหม่สามารถเปลี่ยนไปใช้โหมดประหยัดพลังงานได้เมื่อคุณภาพไฟฟ้าเอื้ออำนวย โดยบรรลุประสิทธิภาพ 99 เปอร์เซ็นต์ แทนที่จะเป็น 94-96 เปอร์เซ็นต์ ข้อเสียคือใช้เวลาถ่ายโอนสั้น ๆ ไปยังแบตเตอรี่หากไฟฟ้าดับ สำหรับโหลดด้านไอทีที่มีแหล่งจ่ายไฟที่ออกแบบมาเพื่อการถ่ายโอนดังกล่าว ความเสี่ยงจะมีน้อยมาก

ใช้การกระจายแรงดันไฟฟ้าที่สูงกว่าการกระจายพลังงานที่ 415V แทน 208V ช่วยลดการสูญเสียการกระจายลงประมาณ 25 เปอร์เซ็นต์ สิ่งนี้ต้องใช้ PDU และอุปกรณ์จ่ายไฟของเซิร์ฟเวอร์ที่เข้ากันได้ แต่มีอุปกรณ์สมัยใหม่จำนวนมากรองรับ

ประสิทธิภาพในโลกแห่งความเป็นจริงเป็นอย่างไร

บริษัทซ่างหยู CPSYซึ่งเป็นองค์กรเทคโนโลยีขั้นสูงที่มุ่งเน้นโครงสร้างพื้นฐานศูนย์ข้อมูล รายงาน PUE ที่ 1.3 สำหรับโซลูชันศูนย์ข้อมูลแบบโมดูลาร์ ซึ่งจะทำให้บริษัทอยู่ในระดับ Gold และก้าวไปสู่ระดับ Platinum

การประหยัดพลังงานที่อ้างว่าสามารถประหยัดพลังงานได้ 25 เปอร์เซ็นต์เมื่อเทียบกับการออกแบบทั่วไปนั้นมาจากหลายปัจจัย ระบบ UPS แบบโมดูลาร์ที่มีประสิทธิภาพ 97.4 เปอร์เซ็นต์ในระดับระบบช่วยลดการสูญเสียในการกระจายซึ่งหากไม่เช่นนั้นจะทำงานถึง 15-20 เปอร์เซ็นต์ เครื่องปรับอากาศที่มีความแม่นยำพร้อมคอมเพรสเซอร์แบบปรับความเร็วได้และพัดลม EC จะปรับเอาต์พุตการระบายความร้อนให้ตรงกับภาระความร้อนจริง แทนที่จะทำงานที่ความจุคงที่ และรูปแบบทางกายภาพ — ที่เก็บทางเดินร้อน ระยะห่างระหว่างชั้นวางที่เหมาะสม พื้นยกสูงด้วยกระเบื้องที่มีรูพรุนขนาดเหมาะสม — จัดการกับการจัดการการไหลเวียนของอากาศที่บ่อนทำลายสิ่งอำนวยความสะดวกที่มีประสิทธิภาพหลายอย่าง

ผลงานการรับรองของบริษัทประกอบด้วย ISO 9001 (การจัดการคุณภาพ) และ ISO 27001 (การจัดการความปลอดภัยของข้อมูล) การใช้งานของลูกค้าประกอบด้วยความร่วมมือกับ Huawei, ZTE และ Inspur โดยมีการติดตั้งเพื่อการส่งออกในสหรัฐอเมริกา สหราชอาณาจักร เยอรมนี ฝรั่งเศส และออสเตรเลีย

โดยที่การระบายความร้อนด้วยของเหลวเข้าสู่ภาพ

หลายปีที่ผ่านมา การระบายความร้อนด้วยของเหลวเป็นเทคโนโลยีเฉพาะสำหรับศูนย์ซูเปอร์คอมพิวเตอร์ นั่นกำลังเปลี่ยนแปลงอย่างรวดเร็ว

คลัสเตอร์การฝึกฝน AI ที่ใช้ NVIDIA H100 หรือ B200 GPU ที่กำลังจะเปิดตัวจะสร้างพลังงานได้ 30-50 กิโลวัตต์ต่อแร็คในรูปแบบระบายความร้อนด้วยอากาศล้วนๆ ที่ความหนาแน่นเหล่านี้ การระบายความร้อนของอากาศต้องใช้อัตราการไหลของอากาศสูง ไม่ว่าจะเป็นพัดลมที่ดัง ชั้นวางลึก และยังคงมีการควบคุมความร้อนเพียงเล็กน้อย

การระบายความร้อนด้วยของเหลวโดยตรงไปยังชิปช่วยขจัดความร้อนที่แหล่งกำเนิดได้ 60-80 เปอร์เซ็นต์ ชิปทำงานเย็นลง พัดลมทำงานช้าลง เครื่องปรับอากาศในห้องจะจัดการเฉพาะความร้อนที่เหลืออยู่จากแหล่งจ่ายไฟ หน่วยความจำ และส่วนประกอบอื่นๆ

ประสิทธิภาพที่เพิ่มขึ้นเป็นอย่างมาก สิ่งอำนวยความสะดวกที่มีการระบายความร้อนโดยตรงไปยังชิปรายงานค่า PUE 1.1 ถึง 1.2 ข้อดีข้อเสียได้แก่ ต้นทุนเงินทุนที่สูงขึ้น การจัดการการรั่วไหลที่ซับซ้อนมากขึ้น และความจำเป็นในการบำบัดน้ำระดับโรงงาน

การระบายความร้อนแบบแช่เต็มรูปแบบ — จุ่มเซิร์ฟเวอร์ทั้งหมดลงในของเหลวอิเล็กทริก — ดัน PUE ต่ำกว่า 1.1 แต่ยังคงความพิเศษไว้ ศูนย์ข้อมูลเชิงพาณิชย์ส่วนใหญ่จะใช้การระบายความร้อนโดยตรงไปยังชิปก่อน จากนั้นจึงแช่ลงในโซนที่มีความหนาแน่นสูงเฉพาะในภายหลัง

แพลตฟอร์มศูนย์ข้อมูล SHANGYU มีข้อกำหนดสำหรับสถาปัตยกรรมระบายความร้อนด้วยอากาศและของเหลว โดยตระหนักว่าการใช้งานที่มีความหนาแน่นสูงในอนาคตจะต้องมีการจัดการระบายความร้อนโดยใช้ของเหลว โดยไม่คำนึงถึงการออกแบบสิ่งอำนวยความสะดวก

ช่องว่างการจัดการ: จากปฏิกิริยาโต้ตอบไปจนถึงการคาดการณ์

ทีมปฏิบัติการศูนย์ข้อมูลส่วนใหญ่ยังคงทำงานเชิงโต้ตอบ เสียงปลุกดังขึ้น มีคนสอบสวน มีการนำการแก้ไขไปใช้ วงจรซ้ำแล้วซ้ำอีก

การเปลี่ยนไปใช้การจัดการเชิงคาดการณ์ต้องใช้ความสามารถสามประการที่หลายองค์กรยังขาด

กรอกข้อมูลการกำหนดค่าให้ครบถ้วนการรู้ว่ามีอะไรอยู่ในศูนย์ข้อมูล — ทุกเซิร์ฟเวอร์, ทุกสวิตช์, ทุก PDU, ทุกหน่วยทำความเย็น — คือรากฐาน หากไม่มีข้อมูล CMDB ที่แม่นยำ การวางแผนกำลังการผลิตก็เป็นเพียงการคาดเดา

การตรวจวัดระยะไกลแบบละเอียดการวัดพลังงานระดับแร็คเป็นค่าขั้นต่ำ การวัดพลังงานต่อเซิร์ฟเวอร์จะดีกว่า การระบุแหล่งที่มาของพลังงานระดับภาระงานดีที่สุดแต่ทำได้ยากที่สุด

การวิเคราะห์ที่แยกสัญญาณออกจากสัญญาณรบกวนอุณหภูมิที่เพิ่มขึ้นอย่างรวดเร็วที่แร็คหนึ่งอาจส่งผลให้พัดลมเสีย อุณหภูมิที่เพิ่มขึ้นอย่างรวดเร็วทั่วทั้งศูนย์ข้อมูลครึ่งหนึ่งอาจส่งผลให้เครื่องทำความเย็นทำงานล้มเหลว ระบบจำเป็นต้องสร้างความแตกต่างและแนะนำการตอบสนองตามนั้น

แพลตฟอร์ม DCIM จาก SHANGYU ให้การสนับสนุนอุปกรณ์ SNMP และ Modbus อินเทอร์เฟซแอปพลิเคชันบนเว็บและ Windows และการบูรณาการกับกล้องเครือข่ายสำหรับการถ่ายภาพที่กระตุ้นเหตุการณ์ เป้าหมายที่ระบุไว้นั้นตรงไปตรงมา: ลดเวลาหยุดทำงานที่มีค่าใช้จ่าย ลดต้นทุนการดำเนินงานรายวันผ่านการควบคุมสิ่งแวดล้อมที่สมบูรณ์ และปรับปรุงการมองเห็นของฝ่ายบริหารและความสามารถในการตรวจสอบย้อนกลับ

เหตุใดจึงมีความสำคัญนอกเหนือจากพื้นศูนย์ข้อมูล

การใช้พลังงานของศูนย์ข้อมูลคิดเป็นประมาณ 1 เปอร์เซ็นต์ของความต้องการไฟฟ้าทั่วโลก ตัวเลขนั้นฟังดูน้อยจนเข้ากัน ซึ่งเทียบเท่ากับปริมาณการใช้ไฟฟ้าโดยรวมของสหราชอาณาจักรโดยประมาณ

ที่สำคัญอัตราการเติบโตกำลังเร่งตัวขึ้น การคาดการณ์ทางอุตสาหกรรมแสดงให้เห็นว่าความต้องการพลังงานของศูนย์ข้อมูลเพิ่มขึ้นร้อยละ 10-15 ต่อปีจนถึงปี 2030 โดยได้รับแรงหนุนจาก AI การใช้ระบบคลาวด์ และการขยายตัวอย่างต่อเนื่องของอุปกรณ์ที่เชื่อมต่อ ในอัตราดังกล่าว ศูนย์ข้อมูลจะใช้ไฟฟ้าร้อยละ 3-4 ของทั่วโลกภายในสิ้นทศวรรษนี้

ประสิทธิภาพที่เพิ่มขึ้นซึ่งทำให้การใช้พลังงานคงที่ตลอดทศวรรษที่ผ่านมามาจากการจำลองเสมือนของเซิร์ฟเวอร์ (ลดจำนวนเซิร์ฟเวอร์ทางกายภาพ) ประสิทธิภาพของไดรฟ์ที่ได้รับการปรับปรุง (ย้ายจากดิสก์ที่หมุนไปเป็น SSD) และการใช้งานการระบายความร้อนฟรีในวงกว้าง (โดยใช้อากาศภายนอกแทนการทำความเย็นเชิงกล) ผลไม้แขวนต่ำเหล่านั้นถูกเก็บมามาก

คลื่นลูกใหม่ของประสิทธิภาพจะมาจากการระบายความร้อนด้วยของเหลว การกระจายแรงดันไฟฟ้าที่สูงขึ้น การควบคุมการระบายความร้อนที่ปรับให้เหมาะสมโดย AI และบางทีอาจสำคัญที่สุด การจัดตำแหน่งที่ดีขึ้นระหว่างความจุของโครงสร้างพื้นฐานและโหลดไอทีจริง ส่วนสุดท้ายนั้นต้องการการมองเห็นแบบเรียลไทม์และการวิเคราะห์เชิงคาดการณ์ที่ระบบ DCIM มอบให้ แต่มีโรงงานเพียงไม่กี่แห่งเท่านั้นที่ใช้งานได้เต็มรูปแบบ

คำถามบางข้อที่ควรค่าแก่การถามเกี่ยวกับโครงสร้างพื้นฐานของคุณเอง

คุณทราบ PUE ที่แท้จริงของคุณ ไม่ใช่หมายเลขบนแผ่นข้อมูลจำเพาะหรือไม่หากคุณไม่ได้วัดที่เอาท์พุตของ UPS และที่อินพุตของอุปกรณ์ไอที แสดงว่าคุณไม่รู้ ความแตกต่างคือค่าใช้จ่ายที่แท้จริงของคุณ

ระบบทำความเย็นของคุณต่อสู้กันเองหรือไม่?ในศูนย์ข้อมูลหลายแห่ง หน่วย CRAC ได้รับการตั้งค่าให้มีแถบอุณหภูมิและความชื้นทับซ้อนกัน หน่วยหนึ่งลดความชื้น ในขณะที่อีกหน่วยหนึ่งทำความชื้น อันหนึ่งเย็นลงในขณะที่อีกอันอุ่นอีกครั้ง นี่ไม่ใช่เรื่องผิดปกติ ก็ไม่มีประสิทธิภาพเช่นกัน

การดึงพลังงานที่ไม่ได้ใช้งานของเซิร์ฟเวอร์ของคุณคืออะไร?ข้อมูลอุตสาหกรรมแสดงให้เห็นว่าเซิร์ฟเวอร์ระดับองค์กรทั่วไปจะดึงพลังงานสูงสุด 30-40 เปอร์เซ็นต์เมื่อไม่ทำอะไรเลย การปิดเครื่องหรือพักเซิร์ฟเวอร์ที่ไม่ได้ใช้คือการวัดประสิทธิภาพ ROI สูงสุดที่มีอยู่ ก็ยังเป็นสิ่งที่ถูกมองข้ามมากที่สุดเช่นกัน

คุณสามารถเพิ่มอุณหภูมิอากาศจ่ายของคุณขึ้นสององศาโดยไม่ละเมิดข้อกำหนดของอุปกรณ์ได้หรือไม่?น่าจะใช่ อุปกรณ์ส่วนใหญ่ได้รับการจัดอันดับสำหรับอุณหภูมิไอดี 25-27 องศา ศูนย์ข้อมูลส่วนใหญ่ทำงานที่อุณหภูมิ 20-22 องศา ช่องว่างหกองศานั้นแสดงถึงพลังงานความเย็นที่ไม่จำเป็นนานหลายปี

คุณตรวจสอบประสิทธิภาพของ UPS ครั้งสุดท้ายเมื่อใดประสิทธิภาพของแผ่นป้ายจะถูกวัดที่โหลดเต็มพร้อมตัวประกอบกำลังที่สมบูรณ์แบบ ประสิทธิภาพในโลกแห่งความเป็นจริงที่โหลดบางส่วนพร้อมตัวประกอบกำลังในโลกแห่งความเป็นจริงสามารถลดลงได้ 5-10 จุด





ก่อนหน้า:ไม่มีข่าว

ส่งคำถาม

X
เราใช้คุกกี้เพื่อมอบประสบการณ์การท่องเว็บที่ดีขึ้น วิเคราะห์การเข้าชมไซต์ และปรับแต่งเนื้อหาในแบบของคุณ การใช้ไซต์นี้แสดงว่าคุณยอมรับการใช้คุกกี้ของเรา นโยบายความเป็นส่วนตัว