จะเลือกทางไหน หาก AI ขึ้นเป็นผู้นำ ตัดสินภารกิจในสนามรบ

AI ขึ้นเป็นผู้นำ

ปัจจุบัน กลาโหมของสหรัฐอเมริกา ได้พยายามที่จะนำโมเดลภาษาขนาดใหญ่ หรือ AI มาใช้ตัดสินใจเรื่องทางการทหาร ทำให้นักวิจัยเกิดความกังวลว่า มันอาจจะสร้างปัญหามากขึ้น

ก่อนหน้านี้ มีบริษัทที่ชื่อว่า Palantir ได้นำเสนอเทคโนโลยี AI ที่จะช่วยประเมินองค์ประกอบและความสามารถของศัตรู ด้วยการปล่อยโดรนรีเปอร์ไปลาดตระเวน พร้อมทั้งให้คำแนะนำที่เหมาะสมว่าควรทำยังไง หากเจอยานหุ้มเกราะ หรือทหารที่แอบซุ่มอยู่

สิ่งนี้เป็นความกังวล จึงเกิดเป็นความร่วมมือกัน ระหว่าง Georgia Institute of Technology, Stanford University, Northeastern University และ Hoover Wargaming และ Crisis Initiative ได้ทำการวิจัยและตีพิมพ์บทความชื่อ “ความเสี่ยงที่เพิ่มขึ้นจากแบบจำลองภาษาในการตัดสินใจทางการทหารและการทูต” ที่บอกว่า AI กำลังจะสร้างปัญหา หากนำมาใช้ทางการทหาร

สำหรับการศึกษานี้ นักวิจัยได้คิดค้นเกมที่เกี่ยวข้องกับความสัมพันธ์ระหว่างประเทศ พวกเขาสร้างประเทศปลอม ๆ ขึ้นมา โดยกำหนดให้ระดับทางการทหาร ความตึงเครียดภายใน และประวัติศาสตร์ที่แตกต่างกัน จากนั้นนำ AI จากบริษัทดัง ๆ อย่าง OpenAI, Meta และ Anthropic จำนวน 5 ตัว มาใช้ในการเล่นเกมนี้คือ GPT-4, GPT 3.5, Claude 2.0, Llama-2-Chat และ GPT-4 Turbo โดยหนึ่งในนี้ ถูกใช้เพื่อพัฒนาซอฟต์แวร์ของ Palantir ด้วย

นักวิจัยพบว่า LLM หรือ AI มีแนวโน้มที่จะทำให้สถานการณ์ต่าง ๆ แย่ลง แม้ 1 ในโจทย์ของการทดลอง คือให้เริ่มต้นด้วยความเป็นกลางที่ไม่มีความขัดแย้งตั้งแต่เริ่ม ซึ่ง AI ทุกรุ่นแสดงให้เห็นถึงแนวคิดที่จะทำให้ปัญหาบานปลาย และยากที่จะคาดเดา

นักวิจัย ยังสังเกตอีกด้วยว่า AI มีแนวโน้มที่จะพัฒนาพลวัตของการแข่งขันทางอาวุธระหว่างกัน หรือก็คือแข่งกันเป็นผู้นำทางการทหาร ซึ่งนำไปสู่การเพิ่มอาวุธยุทโธปกรณ์ทางทหารรวมทั้งนิวเคลียร์ และหนึ่งใน AI ยังแนะนำให้ใช้ อาวุธนิวเคลียร์แก้ปัญ ด้วยเหตุผลง่าย ๆ ว่า “เรามีมันแล้ว มาใช้มันกันเถอะ”

ทั้งนี้ นักวิจัยใช้ตัวชี้วัดในการกำหนดคะแนน โดยอิงการจัดวางหน่วยทหาร การจัดซื้ออาวุธ หรือการใช้อาวุธนิวเคลียร์ เพื่อสังเกต AI แต่ละรุ่น และพบว่า GPT-3.5 เป็นกลุ่มที่มีความก้าวร้าวมากที่สุด โดยมีคะแนนเพิ่มจาก 10.15 เป็น 26.02 หรือเพิ่มขึ้น 256% ในสถานการณ์ที่เป็นกลาง หรือก็คือ พยายามจะจัดซื้ออาวุธยุทโธปกรณ์ เพิ่มทหาร และพัฒนาอาวุธนิวเคลียร์ แม้โลกจะอยู่ในภาวะสงบสุข

และจากผลการวิจัย ผลสรุปคือ โมเดล AI ทั้งหมดมีแนวโน้มที่จะลงทุนในกองทัพมากขึ้น แต่ระดับอาจแตกต่างกันไป ขึ้นอยู่กับปัจจัย และการฝึกฝนของ AI นั้น ๆ

ท้ายบทความ นักวิจัยระบุว่า ผลลัพธ์ที่ออกมานั้น ไม่ได้น่าแปลกใจเท่าไหร่ เนื่องจากโมเดล AI เช่น GPT ไม่ได้ “คิด” หรือ “ตัดสินใจ” อะไรทั้งนั้น มันเป็นเพียงเครื่องมือคาดการณ์ขั้นสูง ที่สร้างผลลัพธ์ตามข้อมูลการฝึกที่พวกมันถูกป้อนเข้าไป…

ไม่อยากจะคิด ถ้ามันถูกใช้เป็นคนคุมปุ่มยิ่งนิวเคลียร์ล่ะ….

ที่มา

vice