โมเดล AI แสดงการตั้งค่าตัวเลขที่เหมือนกับมนุษย์

โมเดล AI แสดงการตั้งค่าตัวเลขที่เหมือนกับมนุษย์

โมเดล AI ไม่เคยหยุดที่จะทำให้เราหลงใหลทั้งในด้านความสามารถและข้อจำกัด โดยแสดงพฤติกรรมแปลกๆ ที่ส่องแสงสว่างบนรูปแบบพื้นฐานของพวกมัน ข้อสังเกตที่น่าสังเกตประการหนึ่งคืออัลกอริทึมเหล่านี้ดูเหมือนจะมีการตั้งค่าสำหรับตัวเลขเฉพาะ คล้ายกับวิธีที่มนุษย์เลือกตัวเลข นี่ไม่ได้เป็นเพียงสิ่งแปลกประหลาดในระดับผิวเผินเท่านั้น โดยให้ข้อมูลเกี่ยวกับวิธีการทำงานของโมเดลเหล่านี้

มนุษย์มีปัญหาที่มีการบันทึกไว้อย่างดีเกี่ยวกับการสุ่ม บ่อยครั้งมีการคิดมากหรือตีความความหมายที่แท้จริงผิดไป ตัวอย่างเช่น เมื่อถูกขอให้คาดการณ์ผลลัพธ์ของการพลิกเหรียญ 100 ครั้ง โดยทั่วไปแล้วการคาดการณ์ของมนุษย์จะไม่รวมเส้นหัวหรือก้อยที่เป็นลักษณะของลำดับการสุ่มจริง ในทำนองเดียวกัน เมื่อเลือกตัวเลขระหว่าง 0 ถึง 100 ผู้คนมักจะชอบตัวเลือกที่ "เป็นกลาง" มากกว่า เช่น ตัวเลือกที่ลงท้ายด้วย 7 มากกว่าตัวเลขสุดขั้วหรือสะดุดตา

โดยไม่คาดคิด ระบบ AI มีอคติในการเลือกตัวเลขเหมือนกับที่มนุษย์ทำ ในการทดลองอย่างไม่เป็นทางการที่ดำเนินการโดย วิศวกรของ Gramener โมเดลภาษาหลักจำนวนมาก (แชทบอท LLM) ถูกขอให้เลือกตัวเลขระหว่าง 0 ถึง 100 ผลลัพธ์สุดท้ายไม่ได้เกิดจากการสุ่มแต่อย่างใด . แม้ว่าการตั้งค่าจะเปลี่ยนไปเพื่อเพิ่มความคาดเดาไม่ได้และเพิ่มความสุ่ม แต่แต่ละโมเดลก็แสดงการตั้งค่าตัวเลขเฉพาะอย่างต่อเนื่อง ตัวอย่างเช่น GPT-3.5 Turbo model จาก OpenAI มักเลือก 47, Claude 3 Haiku ของ Anthropic ไปด้วย 42 ในขณะที่ Gemini เลือกใช้ 72 ในทำนองเดียวกัน รุ่นอื่นๆ ก็มีการตั้งค่าตัวเลขของตัวเองเช่นกัน

นอกจากนี้ แบบจำลองเหล่านี้หลีกเลี่ยงตัวเลขที่ต่ำและสูง และไม่ค่อยเลือกใช้ตัวเลขสองหลักหรือตัวเลขกลม เว้นแต่การตั้งค่าอุณหภูมิจะถูกขยายให้สูงสุด ซึ่งทำให้ราศีเมถุนมีตัวเลือกที่ไม่ค่อยพบบ่อยนัก

นี่ไม่ได้เกิดจากการมีสติหรือความรู้เรื่องการสุ่ม แต่เป็นการสะท้อนข้อมูลการฝึกอบรมของแบบจำลอง หากไม่มีตรรกะที่แท้จริง ระบบเหล่านี้จะสร้างคำตอบโดยพิจารณาจากความถี่ในการป้อนข้อมูลเท่านั้น โมเดลมีโอกาสน้อยที่จะถูกเลือกโดยโมเดล หากไม่ได้เกิดขึ้นบ่อยครั้งเป็นการตอบสนองในชุดการฝึก

การเลียนแบบรูปแบบการเลือกที่เหมือนมนุษย์ ในงานที่ดูเรียบง่าย เช่น การเลือกตัวเลข แสดงให้เห็นว่าโมเดล AI สะท้อนอคติและพฤติกรรมที่มีอยู่ในการฝึกอย่างไร ข้อมูลซึ่งมักนำไปสู่การตีความการกระทำของพวกเขาโดยมนุษย์

แม้จะดูเหมือน "คิด" เหมือนมนุษย์ แต่แบบจำลองเหล่านี้ยังขาดความเข้าใจและจิตสำนึก โดยจะทำงานเฉพาะกับข้อมูลที่ประมวลผล ซึ่งเผยให้เห็นทั้งศักยภาพและข้อจำกัดของเทคโนโลยี AI ในปัจจุบัน

Code Labs Academy © 2024 สงวนลิขสิทธิ์.