بدون سبب واضح نظام تيسلا Autopilot يسبب حادث فردي
صورت كاميرات سيارة تيسلا في وضعية القيادة الذاتية الكاملة Autopilot وقوع حادث غير مفسر.
فيما يبدو كطريق بسيط لسائق عادي، خرجت السيارة فجأة عن الطريق إلى التراب، لا نخفي نجاح السيارة في تفادي حاجز الطريق والأشجار والحفاظ على سلامة الركاب، ولكن لا يوجد ما يدعو حقاً لأن تتخذ السيارة قرار الخروج عن الطريق بهذه الصورة من الأساس. إذا حاولنا تبرير الأمر، يبدو أن نظام تيسلا للقيادة الذاتية اعتبر أن السيارة القادمة من الطرف الآخر خطراً مباشراً كحادث وجه لوجه محتمل واختار النظام أخذ مسار خطير آخر ولكن أقل خطورة مما كان متوقعاً.
في جميع الأحوال، تستمر توثيقات حوادث أنظمة القيادة الذاتية الحالية بتأكيد أن الوقت لا يزال مبكراً جداً على السيارات ذاتية القيادة بالكامل. ربما يستغرق الأمر عقداً آخر من الزمن، إذا كنا سنشاهد تلك السيارات على أي حال.
Tesla Full Self Driving beta causes an accident.
Resposting a portion in case the original at https://t.co/pRIwE8qL0w gets taken down (https://t.co/44hcOtK3vi). This is clear fair use under the DMCA exception for news reporting. https://t.co/f8yFVZm2iT pic.twitter.com/RLL8nIjXnA
— mostlyharmlessz (@mostlyharmlessz) December 10, 2021
|
The post بدون سبب واضح نظام تيسلا Autopilot يسبب حادث فردي appeared first on سعودي شفت.
مواضيع ذات صلة