ใครผิด เปิดสถิติอุบัติเหตุ Autopilot เมื่อ AI ยังต้องง้อคนขับ

เทคโนโลยีต่อจะสู้กับความประมาท เลินเล่อ จากพฤติกรรมของผู้ขับขี่ได้หรือไม่ การตรวจสอบระบบขับขี่อัตโนมัติ Autopilot ยังคงเดินหน้าอย่างหนัก เพื่อพิสูจน์ว่าเทคโนโลยีพร้อมใช้งานแล้วหรือยัง

รถยนต์ Tesla ที่ใช้ระบบ Autopilot พุ่งชนรถตำรวจ ขณะที่คนขับกำลังเพลินกับหนังเรื่องโปรดบนหน้าจอมือถือ แต่โชคดีที่อุบัติเหตุครั้งนี้ไม่มีผู้เสียชีวิต นี่เป็นเพียงหนึ่งใน 273 เหตุการณ์อุบัติเหตุที่เกิดขึ้นในปีที่ผ่านมา ซึ่งมีความเกี่ยวข้องกับรถยนต์ที่ติดตั้งระบบช่วยเหลือผู้ขับขี่ จากจำนวนอุบัติเหตุทั้งหมด 392 ครั้ง ในสหรัฐ

ข้อมูลจากเว็บ Tesladeaths ระบุว่ามี มีผู้เสียชีวิตที่เกี่ยวข้องกับระบบ Autopilot มากถึง 12 ราย คำถามใหญ่คือ นี่เป็นความผิดของ AI รถยนต์หรือคนขับกันแน่ หรือจริงๆ แล้ว ผิดทั้งคู่

อุบัติเหตุที่เกิดขึ้นหลายครั้ง ทำให้ต้องเรียกคืนรถ Tesla ที่ติดตั้งระบบขับขี่อัตโนมัติล็อตใหญ่ โดยหน่วยงาน NHTSA ที่ทำหน้าที่บริหารความปลอดภัยการจราจรบนทางหลวงแห่งชาติ สหรัฐ ได้เข้ามาตรวจสอบในประเด็นนี้ ทั้งรถยนต์ของเทสล่าเอง และแบรนด์อื่นที่ติดตั้งระบบ Autopilot

การตรวจสอบครั้งนี้ลงลึกไปถึง Engineering Analysis (EA) เพื่อวิเคราะห์การชนที่เกิดขึ้นในทุกมิติ ทั้งประเมินตัวรถ สำรวจระดับที่ Autopilot ทำงาน และระบบที่เกี่ยวข้อง ซึ่งอาจเป็นปัจจัยสำคัญที่ทำให้เกิดความเสี่ยงด้านความปลอดภัย รวมถึงพฤติกรรมผู้ขับขี่ด้วย

ทั้งหมดนี้ ก็เพื่อใช้ข้อมูลวิทยาศาสตร์เพื่อวิเคราะห์ขั้นตอน และตรวจสอบว่าคำเตือนด้านความปลอดภัยของ ระบบ Autopilot ที่ค่ายรถยนต์ออกมาใช้นั้น หละหลวมเกินไปสำหรับพฤติกรรมการขับขี่หรือไม่

NHTSA ระบุว่า หน่วยงานกำลังตรวจสอบรถยนต์จำนวน 830,000 คันในสหรัฐอเมริกา เพื่อแบ่งระดับความสามารถของระบบขับขี่อัตโนมัติ ตั้งแต่ระดับ 0 ซึ่งหมายถึงความสามารถในการช่วยเหลือผู้ขับขี่พื้นฐาน เช่นการเบรกฉุกเฉินอัตโนมัติ แจ้งเตือนการชนด้านหน้า และเตือนขณะที่รถออกจากเลน ที่ AI ทำได้

ไปจนถึงระดับ 5 คือระบบอัตโนมัติเต็มรูปแบบ โดยไม่จำเป็นต้องอาศัยคนขับ ซึ่งจนถึงปัจจุบันยังไม่มีรถยนต์อัตโนมัติรุ่นไหนที่ผ่านระดับ 2 ซึ่งเป็นสถานะที่ต้องการการตรวจสอบจากคนขับมาได้ นั่นแปลว่าคุณไม่ควรละสายตาและมือออกจากพวงมาลัยขณะที่ขับขี่ แม้รถที่ใช้งานอยู่นั้นจะติดตั้งระบบ Autopilot แล้วก็ตาม เพราะมันไม่น่าเชื่อถือ 100% เสมอไป

ทั้งนี้ เทสลาเองได้รับทราบถึงอุบัติเหตุที่เกิดขึ้นทั้ง 12 ครั้ง ซึ่งเกิดจาก Traffic-Aware Cruise Control ไม่ตอบสนอง จนทำให้เกิดการบาดเจ็บและความเสียหายของตัวรถ โดยเว็บไซต์ของ Tesla ได้ขึ้นข้อความชี้แจงว่า Autopilot และ Full Self-Driving Capability มีไว้สำหรับใช้กับคนขับที่เอาใจใส่อย่างเต็มที่ โดยวางมืออยู่บนพวงมาลัย และพร้อมที่จะเข้าควบคุมทุกเมื่อ

เรื่องนี้ยังคงเป็นประเด็น ในขณะที่ผู้ผลิตรถยนต์หลายรายกำลังใช้ AI หรือปัญญาประดิษฐ์ เข้ามาช่วยควบคุมการตัดสินใจขณะขับขี่แทนคน ซึ่งก่อนปล่อยออกมาให้ใช้งานจริง จำเป็นต้องตรวจสอบให้แน่ใจ เพราะมันหมายถึงความเสี่ยงที่จะตามมา

ที่มา : https://thebossmagazine.com/teslas-autopilot-investigation-continues/

https://www.zdnet.com/article/teslas-autopilot-comes-under-fire-following-release-of-new-crash-data/

https://www.tesladeaths.com/

https://www.nhtsa.gov/technology-innovation/automated-vehicles-safety

https://static.nhtsa.gov/odi/inv/2021/INCLA-PE21020-5483.PDF

https://www.tesla.com/support/autopilot