لطالما كانت اختبارات أنظمة فرامل الطوارئ حداً فاصلاً بين الأنظمة الآمنة والأنظمة غير الاعتمادية، وها هي تيسلا تنضم للمجموعة الأخيرة في الصين بعد عمل مجموعة من الاختبارات لها.
نشاهد في مقاطع الفيديو دمى اختبارات تحاكي سير شخص في الطريق وفي نفس الوقت تقترب سيارة تيسلا منها، ومن المفترض أن يكتشف نظام القيادة الذاتية أو نظام فرامل الطوارئ ذلك ويقوم بالفرملة ويحمي حياة الشخص المار، للأسف ذلك لم يحدث وصدمت السيارة الدمية في كل مرة. ويجدر بالذكر أن اختبارات أمريكية سابقة توصلت إلى نتائج مشابهة عند اختبار سيارات تيسلا.
تقول التغريدة المرفقة بمقاطع الفيديو بأسلوب ساخر أن “نظام تيسلا للقيادة الذاتية لا يستطيع اكتشاف المشاة، ولكنه سيكلف العملاء 8,000 دولار”، وتقول أخرى أن “حاسوب السيارة الفائق ربما يكون اكتشف أن هذه دمية وليست شخصاً حقيقياً ولم يجد ذلك سبباً للفرملة”.
Chinese media ran a series of tests to examine vehicle safety measures, recording their findings. Tesla performed by far the worst. Here is a video of a $TSLA failing its automatic braking test.
Tesla charges $8000 for "Full Self Driving" but can't detect pedestrians in the road pic.twitter.com/4fB60MPUYI
— Stultus (@StultusVox) September 20, 2020
Clip from China of a $TSLA Model 3, evidently equipped with the latest and greatest safety technology. My guess is the 4D dojo supercomputer recognizes that the pedestrian dummy is not a human and therefore sees no reason to perform evasive maneuvers. pic.twitter.com/R1mQqbxIy9
— Stultus (@StultusVox) September 20, 2020