OpenAI เรียกร้องให้มีการติดตั้งฆ่าคำสั่งในฮาร์ดแวร์เพื่อความปลอดภัยของ AI ที่มีความซับซ้อน

ในการประชุม AI Infra Summit ที่ซานตาคลารา Richard Ho หัวหน้าฝ่ายฮาร์ดแวร์ของ OpenAI ได้เตือนว่าระบบ AI ในอนาคตจำเป็นต้องมีฟีเจอร์ความปลอดภัยระดับฮาร์ดแวร์ เช่น kill switches เพื่อรับมือกับโมเดล AI ที่มีความซับซ้อนและอันตราย โดย Ho เน้นว่าการพัฒนาของ AI ที่สร้างขึ้นนั้นต้องการการปรับเปลี่ยนสถาปัตยกรรมระบบให้เหมาะสมมากขึ้น รวมถึงการจัดการกับข้อจำกัดด้านฮาร์ดแวร์และความต้องการพลังงานที่อาจสูงถึง 1 เมกะวัตต์ต่อ rack

หัวหน้าแผนกฮาร์ดแวร์ของ OpenAI กล่าวเตือนว่า โมเดล AI ที่ซับซ้อนต้องการฟีเจอร์ความปลอดภัยระดับฮาร์ดแวร์ เช่น kill switches ที่สร้างขึ้นในอุปกรณ์เพื่อป้องกันปัญหาที่อาจเกิดขึ้น Richard Ho กล่าวในงาน AI Infra Summit ว่า “มันต้องสร้างขึ้นในฮาร์ดแวร์” โดยเน้นว่าความปลอดภัยในปัจจุบันส่วนใหญ่ยังอยู่ในซอฟต์แวร์ ซึ่งอาจไม่สามารถรับประกันความปลอดภัยของฮาร์ดแวร์ได้

Ho ยังพูดถึงความท้าทายทางฮาร์ดแวร์ที่ต้องแก้ไข เช่น ข้อจำกัดในหน่วยความจำความเร็วสูง และความต้องการการรวมชิปในรูปแบบ 2.5D และ 3D รวมถึงความต้องการพลังงานที่อาจสูงถึง 1 เมกะวัตต์ต่อแร็ค นอกจากนี้ยังมีการเสนอให้มี telemetry เพื่อตรวจจับพฤติกรรมที่ผิดปกติและเส้นทางการทำงานที่ปลอดภัยใน CPU และ accelerators