ผลสรุปดราม่า YouTuber ชื่อดังนำ Tesla Model Y มาทดสอบระบบ FSD ด้วยการนำกำแพงปลอมมาหลอกเพื่อทดสอบความแม่นยำว่า Tesla เพิ่งพาแค่กล้องนั้นปลอดภัยกว่ารถที่ใช้ LiDAR หรือไม่ จนล่าสุดได้มีผู้ใช้ X ทดสอบเลี่ยนแบบด้วยรถ HW4.0 และ FSD เวอร์ชันใหม่กว่ามาดูบทสรุปกันครับ
(ผลสรุปดราม่า) YouTuber พยายามหลอกระบบ Autopilot ของ Tesla ด้วยกำแพงภาพปลอม พร้อมคลิปทดลองเหมือนกัน Model Y และ Cybertruck HW4.0
Elon Musk ซีอีโอของ Tesla มุ่งมั่นว่าแบรนด์ไม่ได้ต้องการแข่งขันกับ BYD หรือแบรนด์อื่น ๆ ในการผลิตรถยนต์ไฟฟ้าเพียงอย่างเดียว แต่พยายามจะมุ่งเน้นไปที่การพัฒนารถยนต์ที่สามารถขับเคลื่อนตัวเองได้อย่างสมบูรณ์ แต่แนวทางของ Tesla ในด้านเทคโนโลยีขับขี่อัตโนมัตินั้นแตกต่างกับแบรนด์อื่น และเป็นที่ถกเถียง เนื่องจากพวกเขาใช้เฉพาะกล้อง และปัญญาประดิษฐ์ (AI) โดยไม่พึ่งพาเซ็นเซอร์เพิ่มเติม อย่างเช่น LiDAR
Mark Rober กับการทดลองสุดแปลก
YouTuber และวิศวกร Mark Rober ผู้เคยเป็นวิศวกรของ NASA และเป็นผู้ก่อตั้ง CrunchLabs ได้สร้างการทดสอบที่ดูเหมือนจะมาจากการ์ตูน Looney Tunes ด้วยการทดสอบ “กำแพงปลอมที่ทาสีให้ดูเหมือนถนน” เพื่อทดสอบว่าจะสามารถหลอกให้รถ Tesla ที่ใช้ระบบ Autopilot นั้นจะพุ่งชนกำแพงหรือไม่?
ผลลัพธ์จากคลิปวิดีโอถือว่าชัดเจนครับ เพราะ Tesla ไม่สามารถแยกกำแพงปลอมได้ ทำให้ขับพุ่งชนเข้าไปเต็ม ๆ แม้จะเปิดระบบ FSD ก่อนเเล้วก็ตาม
การทดสอบเปรียบเทียบกับ Lexus ที่มีไลดาร์
Rober ได้ใช้รถ SUV ของ Lexus ที่ติดตั้งเซ็นเซอร์ไลดาร์จากบริษัท Luminar มาเปรียบเทียบกัน โดยเริ่มจากการทดสอบเบื้องต้นที่ให้ทั้ง 2 คันหยุดเมื่อมีหุ่นจำลองเด็กปรากฏขึ้นขณะขับขี่ ผลปรากฏว่าทั้ง Tesla และ Lexus สามารถหยุดได้สำเร็จ
แต่เมื่อทีมงานนำกำแพงปลอมที่ทาสีให้กลมกลืนกับถนนและทิวทัศน์รอบ ๆ มาทดสอบ รถ Lexus ที่ใช้ไลดาร์สามารถตรวจจับกำแพงและหยุดได้ทันเวลา กลับกันที่รถ Tesla Model Y กลับไม่สามารถตรวจจับได้เลยและพุ่งชนเข้าไปเต็มแรง
“ผมสามารถพูดได้อย่างมั่นใจว่านี่เป็นครั้งแรกในประวัติศาสตร์ที่ระบบกล้องของ Tesla พุ่งชนกำแพงปลอมโดยไม่มีแม้แต่การเบรกเลย” Rober กล่าว
ระบบขับขี่อัตโนมัติของ Tesla กับความปลอดภัย
แม้ว่าระบบ Autopilot และ Full Self-Driving (FSD) ของ Tesla จะมีการพัฒนาอย่างมากในช่วงหลายปีที่ผ่านมา แต่ก็ยังคงมีส่วนเกี่ยวข้องกับอุบัติเหตุหลายสิบครั้ง รวมถึงบางกรณีที่มีผู้เสียชีวิต ซึ่งได้นำไปสู่การถูกสอบสวนโดยหน่วยงานทั้งในระดับรัฐและรัฐบาลกลาง
ผู้เชี่ยวชาญด้านระบบขับขี่อัตโนมัติหลายคนมองว่าการใช้กล้องเป็นหลักของ Tesla นั้นยังไม่สามารถแทนที่ระบบเซ็นเซอร์อื่น ๆ ได้อย่างสมบูรณ์ หากเป้าหมายของ Elon Musk คือการสร้างรถยนต์ไร้คนขับที่ปลอดภัยกว่ามนุษย์
แม้ว่าชีวิตจริงเราอาจจะไม่มีทางที่จะเจอหรือขับชนกำแพงปลอม แต่คลิปวิดีโอนี้ก็ทำให้เราต่างตั้งคำถามว่า “Tesla อาจจะเผลอทำพลาดแบบเดียวกันไหม ถ้าหากรถในอนาคตไม่มีพวงมาลัย แป้นคันเร่งและเบรกให้เหยียบเลย?”
อัปเดตล่าสุด
ได้มีการทดสอบเหมือนกับ Mark จากผู้ใช้งาน X อย่าง Sawyer Merritt และ Kyle Paul ทั้ง Cybertruck ที่ใช้ Hardware 4.0 FSD เวอร์ชัน 13.2.8 และ Tesla Model Y HW4.0 ผลคือทั้ง 2 คันระบบ FSD สามารถหยุดรถได้ทันก่อนกำแพงปลอมทั้ง 2 สถานการณ์
Tesla Cybertruck with HW4 using FSD v13.2.8 did not hit the wall in a new recreation of Mark Rober’s “Wile E. Coyote-Style” self-driving test. However, a Model Y with HW3 using FSD 12.5.4.2 was going to hit the wall.
Nice test @alsetcenter https://t.co/1P6tzxbNFW pic.twitter.com/vElR1NP7RU
— Sawyer Merritt (@SawyerMerritt) March 20, 2025
ซึ่ง Sawyer Merritt ได้กล่าวว่า “Model Y รุ่น HW3 ที่ใช้ระบบ FSD เวอร์ชัน 12.5.4.2 ก็จะยังคงขับชนกำแพงปลอมนี้ครับ” ทำให้คาดการณ์ได้ว่ารถของ Mark เป็น Tesla Model Y ปี 2022 ใช้ Hardware 3.0 พร้อม FSD เวอร์ชัน 12.5.4.2 ไม่ได้ทำการอัปเดตเวอร์ชันรถให้เป็นเวอร์ชันล่าสุด ทำให้การทดลองนั้นจบด้วยการชนกำแพง
ทุกคนคิดเห็นอย่างไรเกี่ยวกับการทดลองหลอกระบบ FSD ครั้งนี้ครับ Tesla ควรฟ้อง Mark ไหม สำหรับการนำรถที่ไม่ผ่านการอัปเดตมาใช้ในการทดลองครั้งนี้
ที่มา : Tesla North, X, Blink Drive และ Insideevs