ไมโครนประกาศ HBM4 แรงที่สุดในอุตสาหกรรม ความเร็ว 2.8TB/s แซงหน้าซัมซุงและ SK Hynix

2805b3fb-6827-81be-a9fe-e83fd9f1c57e.png

Micron ผู้ผลิตชิปหน่วยความจำชั้นนำของสหรัฐฯ ได้ประกาศความก้าวหน้าครั้งสำคัญในตลาดหน่วยความจำแบนด์วิดธ์สูง (HBM) โดยเปิดเผยข้อมูล HBM4 รุ่นใหม่ที่มีประสิทธิภาพสูงกว่ามาตรฐานอุตสาหกรรมถึง 40% ระหว่างงานประกาศผลประกอบการไตรมาสที่ 4 และปีการเงิน 2025 ของบริษัท การประกาศครั้งนี้ถือเป็นการท้าทายตำแหน่งผู้นำในตลาด HBM ที่ปัจจุบันครอบงำโดยค่ายเกาหลีใต้อย่าง Samsung และ SK Hynix[1][2]

Sanjay Mehrotra ประธานเจ้าหน้าที่บริหารของ Micron ยืนยันว่าบริษัทได้ส่งตัวอย่างผลิตภัณฑ์ HBM4 รุ่น 12-high ให้กับลูกค้ารายสำคัญเพื่อทดสอบแล้ว โดยหน่วยความจำรุ่นนี้จะพร้อมวางจำหน่ายในปี 2026 เพื่อรองรับความต้องการที่เพิ่มขึ้นจากระบบปัญญาประดิษฐ์และดาต้าเซ็นเตอร์ที่ต้องการความเร็วและความจุสูงขึ้นเรื่อยๆ นอกจากนี้ Micron ยังวางแผนเปิดตัว HBM4E ที่มีความจุ 64GB และแบนด์วิดธ์ 2TB/s ในช่วงปี 2027-2028 อีกด้วย[3]

คุณสมบัติเด่นที่สุดของ HBM4 จาก Micron คือแบนด์วิดธ์ที่สูงถึง 2.8 TB/s และความเร็วในการส่งข้อมูลที่ 11 Gbps ซึ่งเป็นตัวเลขที่สูงกว่าสเปกมาตรฐาน JEDEC ของ HBM4 ที่กำหนดไว้ที่ 2 TB/s และ 8 Gbps มาก สาเหตุที่ Micron พัฒนาให้ได้ประสิทธิภาพสูงขึ้นนั้นเป็นเพราะลูกค้ารายใหญ่อย่าง NVIDIA ต้องการหน่วยความจำที่มีประสิทธิภาพสูงกว่ามาตรฐานเพื่อรองรับ GPU รุ่นใหม่ๆ อย่าง Rubin R100 และชิป AI รุ่นถัดไป[4]

การเข้าสู่ตลาด HBM ของ Micron ถือเป็นการมาทีหลัง เพราะก่อนหน้านี้ตลาดถูกครอบงำโดย SK Hynix ซึ่งเป็นผู้นำตลาด HBM3E อยู่แล้ว อย่างไรก็ตาม Micron ได้พิสูจน์ความสามารถในการผลิต HBM3E 12-high ความจุ 36GB ที่ใช้พลังงานต่ำกว่าคู่แข่งถึง 30% แม้จะมีความจุมากกว่า 50% และกำลังจัดส่งให้กับพันธมิตรสำคัญในระบบนิเวศ AI อยู่แล้ว ความสำเร็จนี้เป็นรากฐานสำคัญที่จะช่วยให้ Micron แข่งขันในตลาด HBM4 ได้อย่างจริงจัง[5]

Micron คาดการณ์ว่าตลาด HBM จะเติบโตอย่างแข็งแกร่งในอีกไม่กี่ปีข้างหน้า โดยในปี 2028 บริษัทคาดว่าตลาด HBM จะขยายตัวอย่างมาก การเปิดตัว HBM4 พร้อมประสิทธิภาพที่นำหน้าสเปกมาตรฐานจึงเป็นกลยุทธ์สำคัญของ Micron ในการเพิ่มส่วนแบ่งตลาดและสร้างความได้เปรียบในการแข่งขันกับผู้ผลิตชิปเกาหลีใต้ ซึ่งจะเป็นประโยชน์ต่อผู้พัฒนาระบบ AI และดาต้าเซ็นเตอร์ที่จะมีตัวเลือกหน่วยความจำประสิทธิภาพสูงมากขึ้น

Micron Technology ผู้ผลิตชิปหน่วยความจำรายใหญ่จากสหรัฐฯ ประกาศความก้าวหน้าครั้งสำคัญในตลาด High Bandwidth Memory (HBM) ด้วยการเปิดตัวหน่วยความจำ HBM4 ที่มีประสิทธิภาพสูงสุดในอุตสาหกรรม โดยมีแบนด์วิดธ์สูงถึง 2.8TB/s และความเร็วพินที่ 11Gbps ซึ่งเหนือกว่าคู่แข่งหลักอย่าง Samsung และ SK Hynix ข้อมูลนี้เปิดเผยโดย Sanjay Mehrotra ซีอีโอของบริษัทในการประชุมผลประกอบการไตรมาสที่ 4 และทั้งปีงบประมาณ 2025[1]

ประสิทธิภาพที่ทะลุข้อกำหนดมาตรฐาน

HBM4 จาก Micron มาพร้อมสเปกที่โดดเด่นกว่ามาตรฐาน JEDEC ที่กำหนดไว้อย่างมีนัยสำคัญ ในขณะที่มาตรฐาน HBM4 กำหนดแบนด์วิดธ์ไว้ที่ 2TB/s และความเร็วพินที่ 8Gbps แต่ Micron สามารถผลักดันประสิทธิภาพให้สูงขึ้นไปถึง 11Gbps ส่งผลให้ได้แบนด์วิดธ์ที่ 2.8TB/s ซึ่งสูงกว่าถึง 40% จากข้อกำหนดพื้นฐาน[2] การพัฒนานี้เกิดขึ้นเพื่อตอบสนองความต้องการจากผู้ผลิต GPU ชั้นนำอย่าง NVIDIA ที่ต้องการหน่วยความจำที่มีประสิทธิภาพสูงขึ้นสำหรับการประมวลผล AI และ Data Center

แผนการเปิดตัวและการขยายตลาด

Micron วางแผนเปิดตัวผลิตภัณฑ์ HBM4 อย่างเป็นทางการในปี 2026 และจะตามด้วย HBM4E ในช่วงปี 2027-2028 โดยรุ่น HBM4E จะมีความจุ 64GB และแบนด์วิดธ์ 2TB/s ซึ่งออกแบบมาสำหรับแอปพลิเคชัน AI และ Data Center ระดับสูง[3] ปัจจุบันบริษัทได้เริ่มส่งตัวอย่างผลิตภัณฑ์ HBM4 12-high ให้กับลูกค้าสำคัญในอุตสาหกรรมเพื่อทำการทดสอบและรองรับการผลิตในอนาคต

การแข่งขันในตลาด HBM

แม้ว่า SK Hynix จะยังคงครองตลาด HBM ด้วยส่วนแบ่งประมาณ 54% และ Samsung อยู่ที่ 39% ในปี 2024 ขณะที่ Micron มีส่วนแบ่งเพียง 7%[4] แต่การประกาศครั้งนี้แสดงให้เห็นความมุ่งมั่นของ Micron ในการแข่งขันในตลาดที่กำลังเติบโตอย่างรวดเร็ว ซีอีโอของบริษัทคาดการณ์ว่าตลาด HBM จะมีการเติบโตอย่างแข็งแกร่งในอีกไม่กี่ปีข้างหน้า โดยเฉพาะอย่างยิ่งจากความต้องการของอุตสาหกรรม AI ที่เพิ่มสูงขึ้นอย่างต่อเนื่อง

ความสำคัญต่ออุตสาหกรรม AI

HBM เป็นองค์ประกอบสำคัญที่ขับเคลื่อนการพัฒนา AI โดยเฉพาะการฝึก Large Language Models และการประมวลผล HPC (High-Performance Computing) ที่ต้องการแบนด์วิดธ์และความจุหน่วยความจำสูง เทคโนโลยี HBM4 จาก Micron ได้รับการออกแบบให้ทำงานร่วมกับ GPU รุ่นใหม่ล่าสุด เช่น NVIDIA Rubin R100 และ AMD Instinct MI400x ซึ่งจะช่วยเพิ่มประสิทธิภาพการประมวลผล AI ให้สูงขึ้นอย่างมีนัยสำคัญ[5]