ข่าว Gate News เปิดตัวโครงการรางวัลช่องโหว่ด้านความปลอดภัยใหม่ของ OpenAI อย่างเป็นทางการ มุ่งเน้นเปลี่ยนจากช่องโหว่เทคโนโลยีดั้งเดิมไปสู่ความเสี่ยงจากการใช้งาน AI ในทางผิด เป็นสัญญาณว่าการบริหารความปลอดภัยของ AI ก้าวเข้าสู่ยุคใหม่ โครงการนี้นำพลังงานจากนักวิจัยภายนอกเข้ามาช่วยระบุอันตรายที่อาจเกิดขึ้นในสถานการณ์จริงของโมเดลล่วงหน้า
โครงการนี้ดำเนินร่วมกับ Bugcrowd เปิดรับนักเจาะระบบจริยธรรม นักวิจัย และนักวิเคราะห์ด้านความปลอดภัย ต่างจากกลไกรางวัลช่องโหว่เดิม ๆ โครงการใหม่นี้ไม่เพียงสนใจข้อบกพร่องของระบบเท่านั้น แต่ยังสนับสนุนการเสนอกรณีความเสี่ยงด้านการป้อนคำสั่ง การใช้งานตัวแทน และพฤติกรรมที่อาจทำให้โมเดลออกผลผิดพลาดหรือเกิดผลลัพธ์ที่ไม่สามารถควบคุมได้ในสภาพแวดล้อมซับซ้อน
ในด้านการออกแบบกฎ OpenAI อนุญาตให้นักวิจัยส่งรายงานด้านความปลอดภัยที่ไม่เกี่ยวข้องกับช่องโหว่เทคนิคโดยตรง เช่น การสร้างเนื้อหาไม่เหมาะสมหรือสถานการณ์ที่อาจทำให้เข้าใจผิดได้ แต่เน้นย้ำว่าข้อมูลที่ส่งต้องมีหลักฐานชัดเจนและมีคุณค่าทางความเสี่ยงจริง ๆ การทดสอบเจาะระบบแบบง่าย ๆ จะไม่ถูกนำมาพิจารณา นอกจากนี้ สำหรับการค้นพบที่เกี่ยวข้องกับความปลอดภัยด้านชีวภาพหรือประเด็นอ่อนไหวอื่น ๆ จะดำเนินการผ่านช่องทางส่วนตัวเพื่อลดความเสี่ยงในการแพร่กระจายข้อมูล
มาตรการนี้สร้างเสียงตอบรับแตกต่างกันในอุตสาหกรรมเทคโนโลยี บางฝ่ายมองว่านี่เป็นก้าวสำคัญในการส่งเสริมความโปร่งใสและความร่วมมือด้านความปลอดภัยของ AI ช่วยสร้างระบบการระบุความเสี่ยงที่เปิดกว้างมากขึ้น แต่ก็มีเสียงวิจารณ์ว่ากลไกนี้อาจไม่สามารถเข้าถึงปัญหาด้านจริยธรรมและความรับผิดชอบในระดับลึก เช่น ขอบเขตการใช้ข้อมูลและกลไกความรับผิดชอบของแพลตฟอร์ม
จากแนวโน้มอุตสาหกรรม ความปลอดภัยของ AI กำลังขยายจากมิติเทคโนโลยีเดียวไปสู่ผลกระทบทางสังคม OpenAI ใช้กลไกการทดสอบแบบเปิดเพื่อชักชวนพลังงานภายนอกเข้ามาช่วยประเมินความเสี่ยง ซึ่งเป็นแนวทางที่ช่วยพัฒนาระบบป้องกันและสร้างความเชื่อมั่นให้ผู้ใช้ อย่างไรก็ตาม โครงการนี้ไม่ใช่วิธีแก้ปัญหาทั้งหมด การพูดคุยเกี่ยวกับกรอบการกำกับดูแล การบริหารระยะยาว และความรับผิดชอบยังคงดำเนินต่อไป เมื่อความสามารถของ AI เพิ่มขึ้น กลไกการป้องกันเชิงรุกอาจกลายเป็นมาตรฐานในอุตสาหกรรมในอนาคต