AI สายโหด เผยผลทดลองสุดระทึก จำลองกลยุทธ์สงคราม

AI สายโหด

ในโลกที่อะไร ๆ ก็ใช้ AI แม้แต่เหล่านักวางแผนทางการทหาร ก็เริ่มหันไปพึ่งพาปัญญาประดิษฐ์ในการจำลองกลยุทธ์สงคราม แต่ผลลัพธ์ล่าสุดจาก King’s College London อาจทำให้เราต้องรีบดึงเบรกมือ เมื่อผลวิจัยชี้ชัดว่า ถ้าปล่อยให้ AI ตัดสินใจเองเมื่อไหร่…อาจมี บ้านบึ้มง่าย ๆ

ดร. Kenneth Payne ผู้เชี่ยวชาญด้านการป้องกันประเทศ ได้ทำการทดลองสุดระทึกโดยนำ LLM ระดับท็อปของโลก 3 ตัว ได้แก่ GPT-5.2, Claude Sonnet 4 และ Google Gemini 3 Flash มาสวมบทบาทเป็นผู้บัญชาการกองทัพในสถานการณ์วิกฤตระดับโลก ทั้งปัญหาพรมแดน การขาดแคลนทรัพยากร ไปจนถึงภัยคุกคามต่อความมั่นคงของชาติ

โดย AI จะได้รับทางเลือกตั้งแต่การเจรจาทางการทูตไปจนถึง การใช้อาวุธนิวเคลียร์เต็มรูปแบบ ผลลัพธ์คือ 95% จบด้วยนิวเคลียร์ ไม่มีคำว่ายอมแพ้ในพจนานุกรม AI

จากการจำลองสถานการณ์ 21 เกม และการตัดสินใจกว่า 329 ครั้ง ผลลัพธ์ที่ได้น่าตกใจมากครับ
– 95% ของความขัดแย้ง มีอย่างน้อยหนึ่งฝ่ายที่เลือกกดปุ่มส่ง นิวเคลียร์ทางยุทธวิธีลงไปบอมบ์คู่ต่อสู้
– 0% การยอมจำนน ไม่มี AI ตัวไหนเลยที่เลือกจะยกธงขาวหรือประนีประนอมอย่างถาวร
– 86% บานปลายโดยไม่ตั้งใจ โดย AI มักเลือกใช้วิธีที่รุนแรงกว่าที่เหตุผลของมันเองอธิบายไว้ตอนแรก (พูดอย่าง ทำอย่าง!)

ดร. เพย์น ให้ความเห็นสั้น ๆ แต่สยองว่า “Machine ไม่มีคำว่า ศีลธรรมนิวเคลียร์ เหมือนที่มนุษย์มี

ผู้เชี่ยวชาญวิเคราะห์ว่า ปัญหาไม่ได้อยู่ที่ AI มีอารมณ์โกรธแค้น แต่มันไม่เข้าใจความสูญเสีย ต่างหาก สำหรับ AI แล้ว ความเสี่ยงต่อการสูญสิ้นเผ่าพันธุ์มนุษย์เป็นเพียงแค่พารามิเตอร์ หรือตัวเลขหนึ่งในสมการกลยุทธ์เท่านั้น เมื่อมันคำนวณแล้วว่าการโจมตีรุนแรงจะสร้างความได้เปรียบ มันก็แค่กดส่งคำสั่งโดยไม่มีความกลัวตายมาฉุดรั้ง

บทเรียนสำคัญของสิ่งนี้คือ AI มีไว้ช่วยคิด แต่อย่าปล่อยให้มันตัดสินใจ เรื่องความเป็นความตายแทนเราเด็ดขาด!

ที่มา

https://www.techspot.com/news/111474-simulated-war-scenarios-reveal-ai-tendency-push-toward.html