Alibaba เปิดตัว Qwen3‑Max โมเดลระดับล้านล้านพารามิเตอร์

downloadfile.png

ทีม Qwen ของ Alibaba ประกาศเปิดตัว Qwen3‑Max โมเดลภาษา (LLM) ระดับล้านล้านพารามิเตอร์ โดยเริ่มจากรุ่นพรีวิวต้นกันยายน 2025 และเปิดให้ใช้งานผ่าน Qwen Chat และ Alibaba Cloud API สำหรับนักพัฒนาและลูกค้าองค์กร รายงานจากประกาศบน Medium และโพสต์ X ของทีม Qwenยืนยันรายละเอียดการเปิดตัวและการเข้าถึง[1][2]

Qwen3‑Max ใช้สถาปัตยกรรม Mixture‑of‑Experts (MoE) และเทรนด้วยข้อมูลราว 36 ล้านล้านโทเค็น ออกแบบมาเพื่อยกระดับความเข้าใจหลายภาษา การให้เหตุผลเชิงตรรกะ งานโค้ดดิ้ง และการสนทนาหลายรอบ รองรับเอกสารยาวและเวิร์กโฟลว์แบบเอเจนต์ในองค์กร เข้าถึงได้ผ่าน Alibaba Cloud Model Studio และ Qwen Chat ตามบทวิเคราะห์จากชุมชนผู้พัฒนา[3][4]

คุณสมบัติเด่นที่ระบุในเอกสารอ้างอิงและบทสรุปภายนอก ได้แก่[5][6][7]

  • สเกลโมเดลมากกว่า 1 ล้านล้านพารามิเตอร์ (1T+)
  • หน้าต่างบริบทระดับ 256k โทเค็นในรุ่นพรีวิว เหมาะกับเอกสารยาวหลายไฟล์
  • มีรุ่น “Qwen3‑Max‑Thinking” สำหรับโจทย์ที่ต้องการเหตุผลหลายขั้นตอน และรุ่นสนทนาเร็วสำหรับงานทั่วไป
  • ใช้งานผ่าน API และเว็บอินเทอร์เฟซของ Qwen และ Alibaba Cloud

สมรรถนะตามตัวเลข benchmark ที่รายงานภายนอกระบุว่า Qwen3‑Max ติด Top 3 บนลีดเดอร์บอร์ด LMArena (งานข้อความ) ช่วงเปิดตัว ทำคะแนน SWE‑Bench Verified ได้ราว 69.6 สะท้อนความสามารถด้านโค้ดและงานเอเจนต์ ขณะที่รุ่น Qwen3‑Max‑Thinking ทำได้ถึง 100% บนชุดคณิตศาสตร์อย่าง AIME25 และ HMMT ในการทดสอบบางชุดที่เผยแพร่ต่อสาธารณะ[8][9][10]

ในฝั่งอีโคซิสเต็ม Alibaba เปิดตัวโมเดลเกี่ยวเนื่องหลายรุ่นครอบคลุมงานวิชวล ความปลอดภัย และการกำกับดูแลคอนเทนต์ เพื่อรองรับเวิร์กโฟลว์ครบวงจร ตั้งแต่สรุปเอกสารยาว RAG โค้ดดิ้ง ไปจนถึงงานโมเดอเรชัน ทั้งหมดเข้าถึงได้ผ่าน Qwen Chat และ Alibaba Cloud[11][12]

บริบทการแข่งขันตามรายงานของสื่อหลักอย่าง South China Morning Post ระบุว่า การก้าวสู่สเกลล้านล้านพารามิเตอร์ทำให้ Alibaba เข้าร่วมแถวหน้าผู้เล่นโมเดลระดับทริลเลียน แข่งขันกับค่ายสากลที่มีโมเดลขนาดใหญ่ในตลาดเอ็นเตอร์ไพรส์[13]