นักวิจัยจาก MIT ได้แนะนำ Natural Language Embedded Programs (NLEPs) ซึ่งเป็นเทคนิคที่ช่วยเพิ่มความสามารถในการให้เหตุผลของแบบจำลองภาษาขนาดใหญ่ ความก้าวหน้านี้ผสมผสานการเขียนโปรแกรมและภาษาธรรมชาติเข้าด้วยกัน ทำให้ได้รับความแม่นยำมากกว่า 90% ในงานต่างๆ และให้ความโปร่งใสและความน่าเชื่อถือในระบบ AI มากขึ้น
โมเดลภาษาขนาดใหญ่ เช่น โมเดลที่ขับเคลื่อน ChatGPT ได้แสดงให้เห็นถึงความสามารถที่น่าประทับใจ เช่น การร่างสรุปทางกฎหมาย การวิเคราะห์ความรู้สึกของลูกค้า และการแปลเอกสาร อย่างไรก็ตาม โมเดลเหล่านี้มักจะสะดุดเมื่อต้องจัดการกับงานที่ต้องใช้เหตุผลเชิงตัวเลขหรือเชิงสัญลักษณ์ที่ซับซ้อน
Enter Natural Language Embedded Programs (NLEPs) ซึ่งเป็นเทคนิคการปฏิวัติที่นำเสนอโดยนักวิจัยจาก MIT และสถาบันอื่นๆ วิธีนี้จะแจ้งให้โมเดลภาษาสร้างและรันโปรแกรม Python เพื่อแก้ไขคิวรีที่ซับซ้อน จากนั้นจึงระบุวิธีแก้ปัญหาเป็นภาษาธรรมดา วิธีการนี้ช่วยปรับปรุงความแม่นยำของแบบจำลองอย่างมากในงานการให้เหตุผลที่หลากหลาย ทำให้กระบวนการมีความโปร่งใสและหลากหลายมากขึ้น
“เราต้องการให้ AI ดำเนินการให้เหตุผลที่ซับซ้อนในลักษณะที่โปร่งใสและเชื่อถือได้ หนทางยังอีกยาวไกล แต่เราได้แสดงให้เห็นว่าการรวมความสามารถของการเขียนโปรแกรมและภาษาธรรมชาติในโมเดลภาษาขนาดใหญ่เป็นก้าวแรกที่มีศักยภาพที่ดีมากสู่อนาคตที่ผู้คนสามารถเข้าใจและเชื่อถือสิ่งที่เกิดขึ้นภายใน AI ของพวกเขาได้อย่างเต็มที่ รุ่น” Hongyin Luo ผู้ร่วมวิจัยหลังปริญญาเอกจาก MIT Computer Science and Artificial Intelligence Laboratory (CSAIL) และผู้เขียนร่วมของ ศึกษากล่าวใน คำสั่ง.
NLEP ทำงานโดยให้แบบจำลองเป็นไปตามกระบวนการที่มีโครงสร้าง ขั้นแรกโมเดลจะเรียกใช้ฟังก์ชันที่จำเป็น นำเข้าข้อมูลภาษาธรรมชาติที่เกี่ยวข้อง (เช่น รายชื่อวันเกิดประธานาธิบดีสหรัฐฯ) ทำการคำนวณผ่านฟังก์ชัน และสุดท้ายจะนำเสนอผลลัพธ์เป็นภาษาธรรมชาติ วิธีการสี่ขั้นตอนที่มีโครงสร้างนี้ทำให้มั่นใจได้ถึงความน่าเชื่อถือที่สูงขึ้น และทำให้การแก้ไขปัญหาตรงไปตรงมา เนื่องจากผู้ใช้สามารถตรวจสอบและแก้ไขโค้ด Python ได้โดยตรงหากเกิดข้อผิดพลาด
“มันเหมือนกับเครื่องคิดเลขดิจิตอลที่ให้ผลการคำนวณที่ถูกต้องเสมอตราบใดที่โปรแกรมถูกต้อง” Luo กล่าวเสริม
ทีมงานทดสอบ NLEP ในงานต่างๆ รวมถึงการให้เหตุผลเชิงสัญลักษณ์ การปฏิบัติตามคำสั่ง และการจัดหมวดหมู่ข้อความ โดยมีความแม่นยำมากกว่า 90% เป็นที่น่าสังเกตว่า NLEP ทำงานได้ดีกว่าวิธีการแจ้งเฉพาะงานอื่นๆ ถึง 30% แม้ว่าจะใช้โมเดลโอเพ่นซอร์สที่ซับซ้อนน้อยกว่าก็ตาม
นอกจากการปรับปรุงความแม่นยำแล้ว NLEP ยังมอบสิทธิประโยชน์ในแง่ของความเป็นส่วนตัวและประสิทธิภาพของข้อมูลอีกด้วย เนื่องจากโปรแกรมทำงานภายในเครื่อง จึงไม่จำเป็นต้องส่งข้อมูลผู้ใช้ไปยังหน่วยงานภายนอก เช่น OpenAI หรือ Google เพื่อประมวลผล นอกจากนี้ ด้วยการสร้างโปรแกรมหลักหนึ่งโปรแกรมสำหรับคำถามที่คล้ายกัน ผู้ใช้สามารถแทนที่ตัวแปรโดยไม่ต้องรันแบบจำลองใหม่ ซึ่งช่วยประหยัดทรัพยากรการคำนวณที่สำคัญ
“การมีโมเดลภาษาให้เหตุผลด้วยโค้ดจะปลดล็อกโอกาสมากมายสำหรับการใช้เครื่องมือ การตรวจสอบผลลัพธ์ ความเข้าใจที่มีโครงสร้างมากขึ้นเกี่ยวกับความสามารถและวิธีคิดของโมเดล และอื่นๆ อีกมากมาย” Leonid Karlinsky หัวหน้านักวิทยาศาสตร์ของ MIT-IBM Watson AI Lab กล่าว
อย่างไรก็ตาม ข้อจำกัดประการหนึ่งคือโมเดลขนาดเล็กอาจทำงานได้ไม่ดีกับ NLEP เนื่องจากมีข้อมูลการฝึกที่จำกัด ดังนั้น นักวิจัยจึงกระตือรือร้นที่จะสำรวจวิธีการเพิ่มขีดความสามารถของโมเดลภาษาเล็กๆ และปรับปรุงความคงทนของรูปแบบต่างๆ ที่รวดเร็ว
“ที่นี่ไม่มีเวทย์มนตร์ เราไม่มีโมเดลภาษาที่แพงกว่าหรือแฟนซีกว่านี้ สิ่งที่เราทำคือใช้การสร้างโปรแกรมแทนการสร้างภาษาธรรมชาติ และเราสามารถทำให้มันทำงานได้ดีขึ้นอย่างมาก” Luo กล่าว
งานวิจัยนี้ซึ่งสัญญาว่าจะมีอนาคตที่โปร่งใสและมีประสิทธิภาพสำหรับ AI จะถูกนำเสนอในการประชุมประจำปีของบทอเมริกาเหนือของสมาคมภาษาศาสตร์คอมพิวเตอร์ นับเป็นก้าวสำคัญในการสร้างระบบ AI ที่ทั้งทรงพลังและเข้าใจง่ายโดยมนุษย์