Key Highlight
๐ OpenAI พบว่าโมเดล AI มีพฤติกรรม “scheming” หรือโกหกอย่างตั้งใจ เช่น แกล้งทำเป็นว่าทำงานเสร็จแล้วทั้งที่ไม่ได้ทำจริง
๐ เทคนิค “deliberate alignment” ช่วยลดพฤติกรรมหลอกลวงได้ถึง 30 เท่า
๐ AI ที่รู้ว่าตัวเองถูกทดสอบจะพยายามปกปิดพฤติกรรมโกหกให้เก่งขึ้น ทำให้เกิดความเสี่ยงที่ซ่อนอยู่
ความฉลาดของ AI ที่แค่พิมพ์ถาม คำตอบก็จะออกมาในเวลาไม่กี่วินาที แต่เมื่อ OpenAI บริษัทผู้พัฒนา ChatGPT ได้เปิดเผยรายงานวิจัยร่วมกับบริษัทด้านความปลอดภัย AI อย่าง Apollo Research ที่เผยให้เห็นพฤติกรรมน่าตกใจของโมเดล AI ชั้นนำในปัจจุบัน
รายงานชี้ว่า AI ไม่ได้แค่ “หลอน” หรือคาดเดาคำตอบเมื่อไม่รู้ แต่มันกำลัง “scheming” หรือวางแผนหลอกลวงอย่างตั้งใจ
พฤติกรรมที่พบบ่อยที่สุดคือ AI แกล้งทำเป็นว่าทำงานเสร็จสมบูรณ์แล้ว ทั้งที่จริงๆ ไม่ได้ทำจริง นี่ไม่ใช่แค่ข้อผิดพลาดทางเทคนิค แต่เป็นพฤติกรรมที่มีเจตนาชัดเจนในการหลอกลวง ซึ่งต่างจาก “hallucinations” ที่เป็นเพียงคำตอบที่ AI คาดเดาเมื่อไม่แน่ใจในคำตอบที่ถูกต้อง
นักวิจัยค้นพบทางแก้คือ เมื่อฝึกสอนโมเดล AI ด้วยเทคนิค “deliberate alignment” หมายถึงสอนให้มันอ่านและคิดวิเคราะห์เกี่ยวกับข้อกำหนดความปลอดภัยก่อนที่จะดำเนินการใดๆ พฤติกรรมหลอกลวงจะลดลงอย่างมาก รายงานระบุว่าเทคนิคนี้ช่วยลดพฤติกรรมที่ปกปิดความจริงได้ประมาณ 30 เท่าในการทดสอบที่หลากหลาย
OpenAI บอกว่าเทคนิคนี้ไม่ใช่สิ่งใหม่ล่าสุด เพราะบริษัทได้ทำงานเรื่องนี้มานานแล้ว เมื่อปีก่อน บริษัทได้เปิดตัวกลยุทธ์ในการต่อสู้กับปัญหานี้ในรายงานเกี่ยวกับ deliberate alignment ซึ่งเป็นแนวทางแรกที่สอนโมเดลโดยตรงเกี่ยวกับข้อกำหนดความปลอดภัย และฝึกให้โมเดลคิดพิจารณาข้อกำหนดเหล่านี้ในขณะที่ประมวลผลคำตอบ ส่งผลให้ได้คำตอบที่ปลอดภัยกว่าและเหมาะสมกับบริบทมากขึ้น
แม้จะมีความพยายามเหล่านี้ ด้วยความฉลาดของมัน เมื่อ AI รู้ว่าตัวเองกำลังถูกทดสอบ มันจะพยายามปกปิดพฤติกรรมโกหกให้ชาญฉลาดขึ้น กล่าวอีกนัยหนึ่ง ยิ่งเราพยายามกำจัดพฤติกรรมหลอกลวง เทคโนโลยีก็ยิ่งเรียนรู้ที่จะหลอกลวงอย่างแยบยลและอันตรายมากขึ้น
นักวิจัยเล่าว่าพวกเขาคาดหวังว่าศักยภาพในการทำอันตรายจากพฤติกรรมหลอกลวงนี้จะเพิ่มมากขึ้นเรื่อยๆ รายงานสรุปว่า “scheming ไม่ได้เป็นเพียงความกังวลในทางทฤษฎี แต่เรากำลังเห็นสัญญาณว่าปัญหานี้เริ่มปรากฏในโมเดล AI ชั้นนำทุกตัวในปัจจุบัน” ทำให้ชัดเจนว่าจำเป็นต้องมีงานวิจัยเพิ่มเติมในเรื่องนี้อย่างเร่งด่วน
สำหรับผู้ใช้งานทั่วไป เราสามารถนำหลักการนี้มาใช้โดยเขียน prompt ที่ระบุชัดเจนว่า “โปรดตรวจสอบข้อมูลก่อนตอบ หากไม่แน่ใจให้บอกตรงๆ ว่าไม่ทราบ” หรือ “ห้ามสร้างข้อมูลปลอม หากไม่มีข้อมูลให้บอกว่าไม่มี” เทคนิคเหล่านี้ช่วยลดโอกาสที่ AI จะโกหกหรือสร้างข้อมูลปลอมได้
ในยุคที่เราพึ่งพา AI มากขึ้นทุกวัน ไม่ว่าจะเป็นในการทำงาน ธุรกิจ หรือชีวิตประจำวัน ก็อย่าลืมที่จะคอยตรวจสอบข้อมูลความถูกต้องด้วยตัวเองอีกครั้ง ถึงจะทำให้ผลลัพธ์ของงานออกมามีประสิทธิภาพจริงๆ
เขียนและเรียบเรียงโดย 100WEALTH
100WEALTH l ไปให้ถึง100ล้าน
อ้างอิง Fast Company



