ไม่พบผลการค้นหา
กลุ่มชำนาญการตรวจสอบยานยนต์อ้างว่า เทคโนโลยีขับรถเองของรถยนต์ไฟฟ้าเจ้าดังอย่าง Tesla เป็นอันตรายต่อเด็กที่เดินอยู่บนถนน หลังจากการกล่าวอ้างและการตรวจสอบของทางกลุ่มว่า เทคโนโลยีดังกล่าวไม่สามารถตรวจจับเด็กที่เดินอยู่ได้

โครงการดอว์น ซึ่งเป็นโครงการตรวจสอบความปลอดภัยในการขับขี่รถยนต์ เปิดเผยว่าจากการตรวจสอบของตนต่อระบบขับรถเองของ Tesla (FSD) ล่าสุด ซึ่งเป็นซอฟต์แวร์ที่อยู่ในช่วงเบต้าพบว่า รถยนต์ของ Tesla มีการขับชนหุ่นจำลองขนาดเล็ก ซึ่งมีขนาดเท่ากับตัวเด็กซ้ำแล้วซ้ำเล่า โดยทางโครงการอ้างว่า ซอฟต์แวร์ดังกล่าวของ Tesla มีปัญหาในการจดจำโครงสร้างของเด็ก ซึ่งเป็นสิ่งที่รัฐสภาสหรัฐฯ กำลังพิจารณาการแบนเทคโนโลยีรถขับเองของ Tesla

จากการตรวจสอบกว่าหลายรอบ ผู้เชี่ยวชาญด้านการตรวจสอบการขับขี่พบว่า ซอฟต์แวร์ดังกล่าวที่ถูกเปิดตัวออกมาเมื่อช่วง มิ.ย.ที่ผ่านมา ล้มเหลวในการตรวจพบหุ่นจำลองขนาดเท่าตัวเด็ก ที่ความเร็วเฉลี่ย 40 กิโลเมตรต่อชั่วโมง ก่อนที่รถของ Tesla จะขับพุ่งชนใส่หุ่นจำลองดังกล่าว โดย แดน โอดาวด์ ผู้ก่อตั้งโครงการดอว์นระบุว่าผลดังกล่าว “น่าสยองอย่างมาก”

โอดาวด์ระบุว่า ในสหรัฐฯทุกวันนี้ มีรถยนต์ของ Tesla ที่มีระบบขับรถเองอยู่บนท้องถนนแล้วกว่าแสนคัน ซึ่งส่งผลเสียและอันตรายต่อเด็กในชุมชนอย่างมาก ทั้งนี้ โอดาวด์ชี้ว่าระบบขับรถเองดังกล่าวควรถูกสั่งห้ามการนำมาใช้ อย่างไรก็ดี Tesla ปฏิเสธข้อกล่าวหาดังกล่าวมาโดยตลอดว่าเทคโนโลยีของตนยังด้อยพัฒนา

ก่อนหน้านี้ มีเหตุรถ Tesla ชนจนส่งผลให้มีผู้เสียชีวิต 2 ราย ในมลรัฐเท็กซัส เมื่อปี 2564 โดย อีลอน มัสก์ ผู้ก่อตั้ง Tesla ได้ออกมาทวีตข้อความระบุว่า ฟีเจอร์ระบบขับเคลื่อนอัตโนมัติซึ่งเป็นอีกรุ่นหนึ่งของ FSD ที่ไม่ซับซ้อนเท่า ไม่ได้ถูกเปิดใช้งานในขณะที่เกิดเหตุการชนกันดังกล่าว

ผู้ถือหุ้น Tesla เข้าหารือกันเมื่อช่วงต้นเดือนที่ผ่านมา เพื่อถกเถียงกันในเรื่องระบบขับรถเองของ Tesla โดยมัสก์ยืนยันว่า ระบบดังกล่าวได้รับการพัฒนาไปมาก และคาดว่าซอฟต์แวร์ดังกล่าวจะสามารถปล่อยออกมาได้ในท้องตลาดช่วงปลายปีนี้ และผู้ครอบครองรถของ Tesla จะสามารถใช้งานมันได้ อย่างไรก็ดี คำถามถึงความปลอดภัยต่อระบบขับรถเองดังกล่าวยังคงถูกตั้งขึ้นมาเรื่อยๆ

ศูนย์การบริหารความปลอดภัยการจราจรบนทางหลวงแห่งชาติ (NHTSA) จากสหรัฐฯ เผยว่า ระบบขับรถเองของ Tesla จะสร้างความสุ่มเสี่ยงต่อพฤติกรรมการขับรถของผู้คน โดย NHTSA กำลังทำการตรวจสอบรถทั้ง 4 โมเดลของ Tesla จำนวน 830,000 คัน หลังพบว่าซอฟต์แวร์ดังกล่าวส่งผลต่อสมรรถภาพของรถ และพฤติกรรมของผู้ขับ

นับตั้งแต่ปี 2559 มีการสืบสวนสอบสวนโดย NHTSA ต่อกรณีรถของ Tesla ที่ใช้ระบบขับเคลื่อนอัตโนมัติชนกว่า 30 กรณี โดย 19 กรณีในนั้นส่งผลให้มีผู้เสียชีวิต ในขณะที่มีกรณีรถของ Tesla ที่ไม่ได้รับการตรวจสอบหลังจากการชนเมื่อมีการใช้ระบบขับเคลื่อนอัตโนมัติอีกกว่า 400 กรณี


ที่มา:

https://www.theguardian.com/technology/2022/aug/09/tesla-self-driving-technology-safety-children?CMP=Share_iOSApp_Other&fbclid=IwAR2nSt9O2oEjD2IsxCr983YnbJWE4FX-HUZ-efX94zKyop5B_d7Tsqm4jiY