Micron ประกาศเดินหน้าผลิตหน่วยความจำ HBM4 เชิงพาณิชย์ในปี 2026 พร้อมส่งมอบตัวอย่าง 36GB แบบ 12-high ให้ลูกค้ารายใหญ่แล้ว โดยใช้เทคโนโลยี DRAM 1β รองรับแพลตฟอร์ม AI รุ่นถัดไป[1] หน่วยความจำรุ่นใหม่มีอินเทอร์เฟซกว้าง 2,048 บิต ความเร็วเกิน 2TB/s ต่อสแตก ประสิทธิภาพดีขึ้น 60% และประหยัดพลังงาน 20% เมื่อเทียบกับ HBM3E[2]
สิ่งที่น่าสนใจคือ Micron วางแผนเปิดตัว HBM4E ในช่วง 2027-2028 ซึ่งจะให้ลูกค้าปรับแต่ง base die แบบคัสตอมได้[3] โดยร่วมมือกับ TSMC ผลิต logic die ตามสั่ง เพิ่มฟีเจอร์เฉพาะทางอย่างแคช โปรโตคอลเชื่อมต่อ หรือระบบรักษาความปลอดภัยที่ตอบโจทย์เวิร์กโหลด AI แต่ละประเภทได้แม่นยำขึ้น[4] ซึ่งถือเป็นการเปลี่ยนแปลงครั้งสำคัญของอุตสาหกรรมหน่วยความจำ
ตลาด HBM คาดว่าจะโตแรงในช่วงปี 2025-2028 ขับเคลื่อนด้วยความต้องการ AI training และ inference ที่พุ่งสูง[5] Micron เข้าสู่ตลาดในฐานะผู้เล่นท้าชิง แข่งกับ SK hynix ที่ครองส่วนแบ่งตลาดนำ และ Samsung ที่กำลังตามหลังมาอย่างแข็งขัน[2] การแข่งขันนี้จะส่งผลดีต่อผู้ใช้งานในระยะยาว ทั้งในแง่ราคาที่แข่งขันได้มากขึ้น และนวัตกรรมที่หลากหลาย
สำหรับตลาดไทยและภูมิภาค การที่ Micron เข้ามาแข่งขันจริงจังในตลาด HBM หมายความว่าผู้ประกอบการ AI และดาต้าเซ็นเตอร์จะมีทางเลือกซัพพลายเออร์เพิ่มขึ้น ลดความเสี่ยงจากการพึ่งพาผู้จำหน่ายรายเดียว ขณะที่สเปกที่แข็งแกร่งขึ้นและประหยัดพลังงานมากขึ้นก็ช่วยลดต้นทุนการดำเนินงานในระยะยาว ซึ่งเป็นปัจจัยสำคัญสำหรับองค์กรที่กำลังวางแผนลงทุนโครงสร้างพื้นฐาน AI
การที่ HBM4E เปิดให้ปรับแต่ง base die ได้ยังสร้างโอกาสให้ผู้พัฒนาระบบ AI สามารถออกแบบโซลูชันที่เหมาะกับงานเฉพาะด้านได้ดีขึ้น ไม่ว่าจะเป็น large language models, computer vision, หรือแอปพลิเคชัน AI แบบเรียลไทม์ ทำให้การลงทุนในฮาร์ดแวร์คุ้มค่าและตอบโจทย์การใช้งานจริงมากขึ้น[6]
