หลุมพรางเทคโนโลยี AI ทำให้คนคิดน้อยลง เมื่อเราถูกป้อนข้อมูลโดยไม่รู้ตัว

ต้องยอมรับว่าทุกวันนี้ AI เป็นส่วนหนึ่งในชีวิตของผู้คนทั่วโลก ธุรกิจต่างให้ AI ช่วยคิดและช่วยออกแบบธุรกิจ ใช้ในการคัดคนสมัครงาน บางทีใช้เพื่อเป็นแนวทางตัดสินคดีความ คนทั่วไปใช้เพื่อคุมระบบ Smart Home หรือใช้เพื่อคนหาข้อมูลบนโทรศัพท์

ดูไปแล้ว AI มันก็มีแต่ข้อดีที่ทำให้ชีวิตคนเราสะดวกขึ้น แต่กำลังมีคำถามว่า อัลกอริทึมเหล่านี้กำลังผลักดันให้เราคิดน้อยลงและทำตามการแสดงผลที่อาจจะถูกต้องหรือไม่ถูกต้องตามข้อมูลที่มันได้รับ กล่าวคือหากข้อมูลมีความอคิติ ผลลัพธ์คงไม่ดีแน่

เมื่อ AI มีวิวัฒนาการ เราจำเป็นต้องมีส่วนร่วมอย่างจริงจังในการตั้งคำถามว่าอัลกอริทึมทำอะไร ผลลัพธ์ที่ได้หมายถึงอะไร และหากมีอคิตีอยู่ในชุดข้อมูลจะส่งผลต่อผลลัพธ์ได้ที่อย่างไร

มีหลายวิธีของ AI ที่ทำให้เราตาบอดมากขึ้น ตัวอย่างเช่น เมื่อเราเริ่มเชื่อและชอบในสิ่งที่เราเห็นบนฟีดข่างของ Facebook ที่ขับเคลื่อนโดยอัลกอริทึ่ม AI เราจะเห็นเฉพาะบทความที่ยืนยันมุมมอมและอคิติของเรา และเราจะอดทนต่อแนวคิดหรือมุมมองของคนอื่นน้อยลง

ในแพลทฟอร์มอื่น ๆ ก็เช่นเดียวกัน อัลกอริทึมมีการแนะนำเนื้อหาที่สามารถกำหนดความต้องการของเราและนำไปในจุด ๆ นั้นโดยไม่รู้ตัว พูดง่าย ๆ คือพยายามฟีดเฉพาะข้อมูลที่เราต้องการ ข้อมูลที่สนับสนุนความคิดและอคติเรา ซึ่งจะทำให้เราเสพติดการเล่น Social Media

หากจะยกตัวอย่างข้อเสียของ AI โดน หาก AI ได้รับข้อมูลผิด ๆ จะเกิดความเสียหายอย่างไร เช่น ธนาคารอาจปฏิเสธการขอสินเชื่อเพียงแค่ถูกตั้งค่าไว้ว่าคุณสมบัติขาดไปแค่ 1 จาก 10 ข้อ ซึ่งหากเป็นคน จะมีการพิจารณาที่ไม่ได้เถรตรงเช่นนี้เสมอ หรือบางครั้งที่ใช้เป็นแนวทางตัดสินคดีความ คำตัดสินอาจไม่เป็นธรรม หากข้อมูลที่ได้ถูกใส่อคติลงไป

สิ่งสำคัญคือราต้องจำไว้ว่าสิ่งเหล่านี้เป็นอัลกอริทึมทางคณิตศาสตร์ ซึ่งผลลัพธ์ที่ได้จะได้แบบตรง ๆ เหมือนกับ 1 + 1 ได้ 2 มันแตกต่างจากหลักจริยธรรมที่มีผลลัพธ์ได้มากกว่านั้น

หากถามว่า ทำไม Ai ถึงเป็นแบบนั้น ? ใครจะรู้ล่ะ…

ปัจจุบัน ความท้าทายที่สำคัญของการพัฒนา AI คือ AI ไม่สามารถอธิบายได้ว่าสิ่งที่คำนวนมาได้ผลลัพธ์แบบนั้นมีเหตุผลอะไร? เพราะ Deep-learning และอัลกอริทึ่มจะถูกพัฒนาจากตรรกะข้อมูลและการทำงานในรูปแบบที่ซับซ้อนมาก และบางครั้งผู้ที่สร้าง Ai ขึ้นมาก็ยังอธิบายไม่ได้ มันอาจเกิดปัญหาร้ายแรงหาก AI ถูกนำไปคำนวนผลลัพธ์ในประเด็นที่มีประเด็นเกี่ยวกับจริยธรรมเข้ามาเกี่ยวข้อง

สิ่งนี้เคยเกิดปัญหาขึ้นแล้วคือ บัตรเครดิตของ Apple ที่ใช้ AI ในการคำนวนยอดวงเงิน โดยให้วงเงินผู้ชายมากกว่า 20 เท่าของผู้หญิงเพราะมีข้อมูลว่าผู้ชายเป็นฝ่ายหาเงินมากกว่าผู้หญิง (ซึ่งมันเก่ามากแล้วล่ะนะ)

ในกรณีเหล่านี้นักพัฒนาได้ใช้ความพยายามอย่างมากในการลบคุณสมบัติใด ๆ ออกจากข้อมูลที่อาจทำให้เกิดอคติในอัลกอริทึม แต่ AI มักพบความสัมพันธ์ที่ซับซ้อนซึ่งพาดพิงถึงสิ่งต่าง ๆ เช่นเพศและเชื้อชาติโดยทางอ้อม และหากไม่มีวิธีใดในการตรวจสอบอัลกอริทึมเหล่านั้น การค้นหาความสัมพันธ์ที่เป็นปัญหาเหล่านี้จึงกลายเป็นความท้าทายใหม่ของการพัฒนา AI

ในขณะที่การเติบโตของการเรียนรู้เชิงลึกและเครือข่ายประสาทเทียมกำลังเพิ่มขึ้น
ความสนใจที่ต้องการทำให้ AI มีหลักจริยธรรมกำลังเป็นที่เป็นที่สนใจ ก่อนหน้านี้มีผู้นำด้านเทคโนโลยีที่ยกประเด็นปัญหาและพยายามทำให้มุมมองของพวกเขาเป็นที่รู้จักของคนทั่วไป

ผู้บริหารอย่าง Bill Gates และ Elon Musk ตลอดจนนักวิทยาศาสตร์อย่าง Stuart Russell และ Stephen Hawking ที่ล่วงลับไปแล้วได้ออกคำเตือนเกี่ยวกับผลที่อาจเกิดขึ้นโดยไม่ได้ตั้งใจของ AI รวมทั้งบริษัทยักษ์ใหญ่ด้านเทคโนโลยีอย่าง Microsoft และ Google ถูกบังคับให้ต้องอธิบายแนวทางของพวกเขาเกี่ยวกับ AI เพื่อหาแนวทางที่ไม่ทำลายหลักจริยธรรมของมนุษย์หากต้องขายเทคโนโลยีนี้ให้กับหน่วยงานภาครัฐ

บทสรุปของ Ai ในปัจจุบัน มันไม่ต่างอะไรกับเครื่องจักร (ในตอนนี้) เพราะจะคิดตามข้อมูลที่ถูกป้อนเขาแล้วคิดในแนวตรง หากจะเปรียบเทียบกับบางอาชีพอย่างพยาบาล AI ยังเป็นเทคโนโลยีที่ยังเข้าถึงได้ยากมาก เพราะอาชีพนี้มีรายละเอียดที่ต้องใช้หลักจิตวิทยาและจริยธรรมบางอย่างที่ไม่สามารถใช้ข้อมูลเป็นพื้นฐานได้เสมอไป

 

Facebook Comments