พุ่งชนหุ่นเด็ก ระบบขับขี่อัตโนมัติ Tesla ทำงานพลาดในสนามทดสอบ

ระบบขับขี่อัตโนมัติ

กลุ่มนักเคลื่อนไหวเพื่อความปลอดภัยบนท้องถนนได้ออกมาตีแผ่ปัญหาของระบบขับขี่อัตโนมัติ Tesla FSD โดยรถยนต์ Tesla ที่เปิดใช้ระบบดังกล่าวได้พุ่งชนหุ่นจำลองเด็กนักเรียนซ้ำแล้วซ้ำเล่า

การสาธิตครั้งนี้จุดประกายความกังวลเรื่อง ความปลอดภัย Tesla ขึ้นมาอีกครั้ง ก่อนที่บริษัทจะเดินหน้าเปิดตัวบริการ Robotaxi Tesla หรือแท็กซี่ไร้คนขับในเร็วๆ นี้

การทดสอบระบบ FSD ชี้จุดบกพร่องร้ายแรง
กลุ่ม The Dawn Project ได้จำลองสถานการณ์ที่รถโรงเรียนจอดนิ่งพร้อมเปิดสัญญาณไฟหยุดเพื่อให้เด็กข้ามถนน แต่รถ Tesla ที่ใช้ ระบบ FSD กลับไม่สามารถตรวจจับและหยุดรถได้ตามกฎหมาย ส่งผลให้พุ่งชนหุ่นจำลองอย่างจัง เหตุการณ์นี้ตอกย้ำถึงข้อเสีย Tesla FSD ที่อาจเป็นอันตรายถึงชีวิตในการใช้งานจริงบนท้องถนน

เทคโนโลยี Vision-Only ของ Tesla ถูกตั้งคำถาม
ผู้เชี่ยวชาญชี้ว่าหนึ่งในสาเหตุอาจมาจากแนวทาง Vision-Only ของ Tesla ที่พึ่งพากล้องเป็นหลัก ต่างจากรถยนต์ไร้คนขับ ค่ายอื่นที่ใช้เทคโนโลยี LiDAR และเรดาร์ร่วมด้วยเพื่อเพิ่มความแม่นยำในการตรวจจับวัตถุ ซึ่งเรื่องนี้ทำให้ NHTSA หน่วยงานกำกับดูแลความปลอดภัยบนทางหลวงของสหรัฐฯ ต้องเข้ามาตรวจสอบ Tesla อย่างใกล้ชิดเลยทีเดียว

ที่มา

chron