ความจุของศูนย์ข้อมูลระดับไฮเปอร์สเกลจะเพิ่มขึ้นเป็น 3 เท่า
Please wait...
1726202978.png
1731393918.jpg
1732076627.jpg
1730459076.jpg
1730782055.jpg
1730966771.jpg
1731999875.jpg
SOLUTIONS CORNER
ความจุของศูนย์ข้อมูลระดับไฮเปอร์สเกลจะเพิ่มขึ้นเป็น 3 เท่า

ความจุของศูนย์ข้อมูลระดับไฮเปอร์สเกลจะเพิ่มขึ้นเป็น 3 เท่าในอีก 6 ปีข้างหน้า

 
Hyperscale data center capacity

ฮาร์ดแวร์ AI มีราคาแพงในการจัดหาและใช้งาน และลูกค้าองค์กรจำนวนมากอาจเลือกที่จะให้ไฮเปอร์สเกลเลอร์ทำเพื่อพวกเขา
 
ปรากฎการณ์อันฉับพลันเร่งรีบต่อการเปิดรับปัญญาประดิษฐ์ (artificial intelligence) โดยเฉพาะอย่างยิ่ง generative AI จะช่วยผลักดันผู้ให้บริการศูนย์ข้อมูลระดับไฮเปอร์สเกล เช่น Google และ Amazon ให้มีขีดความสามารถเพิ่มขึ้นเกือบสามเท่าในอีกหกปีข้างหน้า
 
นั่นคือข้อสรุปจาก Synergy Research Group ตามตลาดศูนย์ข้อมูล ในรายงานฉบับใหม่ Synergy ตั้งข้อสังเกตว่า ถึงแม้จะมีการกล่าวอ้างเกี่ยวกับ AI ที่เกินจริงมากมาย แต่ก็ไม่ต้องสงสัยเลยว่า generative AI นั้นกำลังส่งผลกระทบอย่างมากต่อตลาดไอที
 
อัปเดตการคาดการณ์ระยะ 6 ปีของ Synergy แสดงให้เห็นว่าความจุโดยเฉลี่ยของศูนย์ข้อมูลไฮเปอร์สเกลใหม่จะเพิ่มขึ้นเร็วๆ นี้ ถึงมากกว่าสองเท่าของศูนย์ข้อมูลไฮเปอร์สเกลที่ดำเนินงานอยู่ในปัจจุบัน และความจุรวมของศูนย์ข้อมูลไฮเปอร์สเกลที่ดำเนินงานทั้งหมดจะเพิ่มขึ้นเกือบสามเท่าระหว่างปี 2566 ถึง 2571
 
การวิจัยนี้อิงจากการวิเคราะห์พื้นที่ศูนย์ข้อมูลและการดำเนินงานของบริษัทผู้ให้บริการคลาวด์และอินเทอร์เน็ตรายใหญ่ของโลก 19 แห่ง ภายในกลางปี 2566 บริษัทเหล่านั้นมีศูนย์ข้อมูลหลักถึง 926 แห่งที่ดำเนินงานทั่วโลก และการคาดการณ์ของ Synergy สำหรับศูนย์ข้อมูลในอนาคตจะรวมศูนย์ข้อมูลอีก 427 แห่งในปีต่อๆ ไป
 
Synergy กล่าวว่าผลกระทบของความก้าวหน้าของ Generative AI ไม่ได้กระตุ้นให้เกิดจำนวนศูนย์ข้อมูลเพิ่มขึ้นมากนัก แต่ส่งผลให้ปริมาณพลังงานที่ต้องใช้ในการดำเนินงานศูนย์ข้อมูลเหล่านั้นเพิ่มขึ้นเป็นอย่างมาก เนื่องจากจำนวน GPU ในศูนย์ข้อมูลระดับไฮเปอร์สเกลพุ่งสูงขึ้นและขับเคลื่อนโดย AI เป็นหลัก ความหนาแน่นของพลังงานของ racks และสิ่งอำนวยความสะดวกของศูนย์ข้อมูลที่เกี่ยวข้องจึงต้องเพิ่มขึ้นมากขึ้นด้วยเช่นกัน ทำให้ผู้ปฏิบัติงานระดับไฮเปอร์สเกลต้องคิดใหม่ ถึงการออกแบบโครงสร้างศูนย์ข้อมูลและแผนการปรับใช้บางส่วนของตนเอง
 
ดังนั้นหาก AWS จะปวดหัวกับการจัดการสิ่งเหล่านี้ แล้วองค์กรทั่วไปที่ใช้เซิร์ฟเวอร์อายุห้าปีจะเป็นอย่างไร?
 
ขณะที่บริษัทต่างๆ กำลังเร่งรีบที่จะโอบรับ generative AI เพื่อปรับปรุงธุรกิจของตัวเอง ค่าใช้จ่ายในการได้มาซึ่งฮาร์ดแวร์และการดำเนินงานได้ทำให้หลายๆ คนต้องหยุดชะงักไป เซิร์ฟเวอร์ DGX จาก Nvidia ที่สร้างขึ้นโดยเฉพาะสำหรับ generative AI และอัดแน่นไปด้วยฮาร์ดแวร์ สามารถทำงานในช่วงหกหลัก (six-figure range) ได้อย่างง่ายดาย สำหรับเงินเท่านั้น คุณจะสามารถซื้อเซิร์ฟเวอร์ปกติได้ประมาณ 10 เครื่อง แล้วองค์กรจะเลือกจัดลำดับความสำคัญอย่างไร?
 
ยิ่งไปกว่านั้น ยังมีค่าใช้จ่ายในการดำเนินงานอีกด้วย Nvidia GPUs ไม่เป็นที่รู้จักสำหรับการใช้พลังงานต่ำ ในทางตรงกันข้าม พวกมันเป็นแหล่งพลังงานที่ใหญ่ที่สุดในศูนย์ข้อมูล ดังนั้นสำหรับองค์กรที่คำนึงถึงงบประมาณ โดยเฉพาะองค์กรขนาดกลาง การใช้ฮาร์ดแวร์ generative AI อาจเป็นเรื่องที่ยุ่งยากเกินไป

นอกจากนี้ วิธีการทำงานของ AI ยังแตกต่างจากแอปพลิเคชันสายธุรกิจแบบดั้งเดิม มันมีงานที่ใช้กระบวนการในการ training ซึ่งต้องใช้ GPUs จากนั้นจะมีการอนุมาน ซึ่งรันออฟ (runs off) จากรุ่นที่ถูกฝึกโดย GPUs เมื่อโมเดลต้นแบบได้รับการฝึก training แล้ว ก็เป็นโอกาสที่ดีที่คุณจะไม่ต้องทบทวนมันเป็นเวลาหลายเดือน จากนั้นฮาร์ดแวร์ราคาแพงมากของคุณก็จะถูฏตั้งอยู่เฉยๆ ไม่จำเป็นต้องใช้ และเสื่อมค่าลงไปในที่สุด 
องค์กรต่างๆ สามารถดำเนินการด้วยตนเองโดยไม่ต้องใช้ผู้ให้บริการคลาวด์ระดับไฮเปอร์สเกลได้หรือไม่? “ตามทฤษฎีแล้ว ใช่ แต่ค่าใช้จ่ายอาจเป็นข้อห้าม และการเข้าถึงความเชี่ยวชาญที่เหมาะสมอาจถูกจำกัดอย่างรุนแรง” John Dinsdale หัวหน้านักวิเคราะห์และผู้อำนวยการฝ่ายวิจัยของ Synergy Research Group กล่าว

ดังนั้นแนวโน้มที่เกิดขึ้นใหม่ในด้านไอทีระดับองค์กรสำหรับ generative AI คือการขยายส่วนการ training ของ AI ออกไป แต่ทำการอนุมานภายในองค์กรซึ่งมีกระบวนการที่เข้มข้นน้อยกว่ามาก เหตุใดจึงลงทุนหลายแสนดอลลาร์ในฮาร์ดแวร์ที่คุณใช้เพียงเท่าที่จำเป็น ในเมื่อคุณสามารถเช่าจาก Google หรือ AWS ได้? 

สิ่งนี้เรียกว่า AI ในฐานะบริการ ซึ่งเป็นข้อเสนอที่เกิดขึ้นใหม่จากไฮเปอร์สเกล เช่น AWS และ Microsoft ที่เราสามารถคาดหวังสิ่งที่จะเกิดขึ้นได้มากกว่านี้ 
 
ที่มา:
https://bit.ly/47ShV26 



ควิกเซิร์ฟ
สินค้า
งานระบบ
บริการ
กิจกรรม
ออนไลน์