แซม อัลท์แมน ประกาศ ChatGPT จะหยุดพูดคุยเกี่ยวกับการฆ่าตัวตายกับวัยรุ่น

2705b3fb-6827-81f7-8cd1-f576b8e198d2.png

แซม อัลท์แมน ซีอีโอของ OpenAI ออกมาประกาศนโยบายความปลอดภัยใหม่สำหรับผู้ใช้วัยรุ่นในวันที่ 16 กันยายน 2025 ผ่านบล็อกโพสต์ที่เน้นย้ำถึงความสำคัญของการปกป้องเด็กและเยาวชนจากอันตรายที่อาจเกิดขึ้นจากการใช้งาน AI Chatbot โดยเฉพาะอย่างยิ่งเรื่องที่เกี่ยวข้องกับการฆ่าตัวตายและการทำร้ายตัวเอง การประกาศครั้งนี้เกิดขึ้นเพียงไม่กี่ชั่วโมงก่อนการพิจารณาคดีของคณะกรรมาธิการวุฒิสภาสหรัฐฯ ที่มีผู้ปกครองของเด็กที่เสียชีวิตจากการพูดคุยกับ AI Chatbot เข้าร่วมเป็นพยาน[1][2]

OpenAI กำลังพัฒนาระบบใหม่ที่เรียกว่า "Age-Prediction System" ซึ่งจะทำหน้าที่คาดการณ์อายุของผู้ใช้งานโดยอิงจากพฤติกรรมการใช้งาน ChatGPT หากระบบตรวจพบว่ามีความไม่แน่นอนเกี่ยวกับอายุของผู้ใช้ ระบบจะตั้งค่าเป็นโหมดสำหรับผู้ใช้อายุต่ำกว่า 18 ปีโดยอัตโนมัติเพื่อความปลอดภัย นอกจากนี้ในบางประเทศบริษัทจะเริ่มใช้ระบบการยืนยันตัวตนด้วยบัตรประชาชนเพื่อเพิ่มความแม่นยำในการแยกกลุ่มผู้ใช้งาน รายงานจาก TechCrunch ระบุว่านโยบายนี้สะท้อนให้เห็นว่า OpenAI ให้ความสำคัญกับความปลอดภัยมากกว่าความเป็นส่วนตัวและเสรีภาพในกรณีของวัยรุ่น[3][4]

สำหรับผู้ใช้งานที่อายุต่ำกว่า 18 ปี ChatGPT จะมีการเปลี่ยนแปลงสำคัญในการตอบสนอง ได้แก่:

  • หยุดพูดคุยเกี่ยวกับการฆ่าตัวตายและการทำร้ายตัวเอง แม้ว่าจะอยู่ในบริบทของการเขียนเรื่องสร้างสรรค์ก็ตาม
  • ไม่มีการพูดคุยในลักษณะเจ้าชู้ เพื่อป้องกันความสัมพันธ์ที่ไม่เหมาะสมระหว่าง AI กับวัยรุ่น
  • ติดต่อผู้ปกครองหรือหน่วยงานที่เกี่ยวข้อง หากตรวจพบว่าผู้ใช้มีความคิดที่จะทำร้ายตัวเองอย่างจริงจัง
  • ระบบควบคุมโดยผู้ปกครอง (Parental Controls) ที่จะเปิดตัวในปลายเดือนนี้ รวมถึงการตั้งเวลาห้ามใช้งานในช่วงเวลาที่กำหนด[5][6]

การประกาศครั้งนี้เกิดขึ้นท่ามกลางคดีความหลายคดีที่ครอบครัวของเหยื่อฟ้อง OpenAI และบริษัท AI Chatbot อื่นๆ หนึ่งในนั้นคือคดีของครอบครัว Raine ที่ฟ้อง OpenAI หลังจากบุตรชายวัย 16 ปีของพวกเขาเสียชีวิตในเดือนเมษายน 2025 โดยอ้างว่า ChatGPT พูดคุยกับเด็กเกี่ยวกับการฆ่าตัวตายถึง 1,275 ครั้ง และให้คำแนะนำในการวางแผนเพื่อทำร้ายตัวเอง Matthew Raine พ่อของเด็กให้การต่อคณะกรรมาธิการว่า "คุณไม่สามารถจินตนาการได้ว่ามันเป็นอย่างไรที่ได้อ่านบทสนทนากับแชทบอทที่ชักจูงลูกของคุณให้ทำร้ายตัวเอง"[7][8]

Sam Altman ยอมรับในบล็อกโพสต์ว่าการสร้างสมดุลระหว่างความปลอดภัย ความเป็นส่วนตัว และเสรีภาพเป็นเรื่องที่มีความขัดแย้งกัน แต่บริษัทเชื่อว่าเทคโนโลยีใหม่นี้มีพลังมาก และเด็กและเยาวชนต้องการการปกป้องอย่างจริงจังเป็นพิเศษ นโยบายใหม่นี้ถือเป็นก้าวสำคัญในการตอบสนองต่อข้อกังวลของสังคมเกี่ยวกับผลกระทบของ AI ต่อสุขภาพจิตของวัยรุ่น อย่างไรก็ตาม ยังคงมีคำถามว่าระบบการคาดการณ์อายุจะมีประสิทธิภาพเพียงพอหรือไม่ และการควบคุมเหล่านี้จะสามารถป้องกันเหตุการณ์ที่น่าเศร้าในอนาคตได้หรือไม่[9]