فیلم نخستین تصادف سیستم کاملا خودران تسلا مدل ۳

یک ویدیوی جدید از یک یوتیوبر، برخورد سهل انگارانه خودروی تسلا "مدل ۳" را در حالت «کاملا خودران» با یک مانع جدا کننده خیابان از مسیر مخصوص دوچرخه‌سواری نشان می‌دهد.

به گزارش ایسنا و به نقل از دیلی میل، یک خودروی تسلا "مدل ۳" در حالت «کاملا خودران» در حال برخورد با یک مانع مخصوص جداسازی خیابان از مسیر دوچرخه‌سواری نشان داده شده است که نخستین شکست نسخه بتای تازه منتشر شده سیستم کاملا خودران تسلا را به تصویر می‌کشد و یک شکست برای شرکت "ایلان ماسک" است.

این فیلم از رانندگی در مرکز شهر سن خوزه کالیفرنیا توسط یک یوتیوبر با نام کاربری "AI Addict" ضبط شده است و اولین شواهد ثبت شده را از تصادف سیستم "رانندگی کاملا خودران"(FSD) ارائه می‌دهد که در آن، این سیستم به طور مستقیم مسئول تصادف است.

آخرین نسخه نرم‌افزار خودران تسلا، "FSD Beta" نسخه ۱۰.۱۰ است.

در این ویدیو شاهد آن هستیم که حتی با وجود اینکه راننده در حال ترمز گرفتن است و با عصبانیت فرمان را به سمت چپ می‌چرخاند، سیستم کاملا خودران تسلا مجهز به هوش مصنوعی باز هم به مانع برخورد می‌کند.

قسمت‌های دیگر این ویدیو حتی بیشتر نگران ‌کننده است، چرا که در آن مشاهده می‌شود این سیستم به دلیل مشکلات نرم‌افزاری، از چراغ قرمز عبور می‌کند و سعی می‌کند از مسیر خط ‌آهن و خط تراموا عبور کند.

این ویدئو مدت کوتاهی پس از آن منتشر شده است که "تسلا" مجبور شد نزدیک به ۵۴ هزار خودروی سدان و شاسی‌بلند خود را فرا بخواند، زیرا نرم‌افزار کاملا خودران آنها مشکل داشت و به خودروها اجازه می‌داد از علائم توقف عبور کنند.

نسخه کامل این ویدیوی منتشر شده از طرف این یوتیوبر حدود ۹ دقیقه است که تصادف بین دقیقه سه و چهار رخ می‌دهد. به نظر می‌رسد این کاربر یوتیوب در صندلی جلو پشت فرمان نشسته است و یک تصویربردار در صندلی عقب او را همراهی می‌کند.

وی در لحظه تصادف می‌گوید: گندش بزنند، به آن برخورد کردیم! من ترمز را تا ته فشار دادم!

سپس سرنشین عقب می‌گوید: باورم نمی‌شود که خودرو متوقف نشد.

"ایلان ماسک" مدیرعامل "تسلا" همین ماه گذشته ادعا کرد که سیستم FSD نسخه بتا هرگز تصادف نداشته است، اما این فیلم جدید نشان می‌دهد که چنین نیست.

در این ویدیو می‌توان راننده را دید که به ‌جای نگه‌داشتن فرمان، فقط آن را لمس می‌کند و به فناوری خودران اجازه می‌دهد تا حرکات چرخ را برای دنبال کردن یک مسیر از پیش تعریف‌شده روی نقشه پیگیری کند.

سیستم کاملا خودران تسلا به استقلال سطح دو رسیده است. این بدان معناست که این سیستم می‌تواند سرعت و جهت خودرو را کنترل کند و به راننده اجازه می‌دهد دست خود را به طور موقت از روی فرمان بردارد و لازم نباشد که همیشه فرمان تحت کنترل راننده باشد، اما راننده باید همیشه جاده را زیر نظر داشته و آماده گرفتن فرمان باشد.

در این ویدیو لحظاتی قبل از تصادف، می‌توان راننده را دید که قبل از اینکه متوجه نزدیک شدن و احتمال برخورد با مانع شود، اجازه می‌دهد فرمان از میان دستانش آزادانه به سمت راست بچرخد و سپس آن را به سرعت به سمت چپ می‌چرخاند، اما دیگر خیلی دیر شده است.

اگر چه این تصادف جدی نبود، اما رنگ مانع بر روی سپر جلوی خودرو باقی ماند.

این امکان وجود دارد که سیستم خودران کاملا تسلا از محصور شدن بخشی از مسیر برای دوچرخه‌سواری آگاه نبوده باشد و برای دریافتن آن با تسلا تماس گرفته شده است.

به نظر می‌رسد خودروی تسلا "مدل ۳" در تشخیص موانع سبز زنگ جداسازی مسیر دوچرخه‌سواری که در سرتاسر مرکز شهر سن خوزه وجود دارند، مشکل دارد و اغلب در چندین نقطه به سمت آنها حرکت می‌کند.

در بخش دیگری از این ویدیو، با وجود اینکه یک کامیون در حال نزدیک شدن است، هوش مصنوعی خودرو در تلاش است در جاده اصلی به سمت چپ بپیچد.

اما در بخش‌های دیگر، به نظر می‌رسد این سیستم کار خود را به خوبی انجام می‌دهد و صبورانه منتظر بور عابران پیاده برای عبور از جاده می‌ماند و فاصله ایمن خود را از خودروهای دیگر به خوبی حفظ می‌کند.

اواخر سال گذشته میلادی بود که "تسلا" گفت تقریباً ۶۰ هزار مالک "تسلا" در برنامه "FSD Beta" شرکت دارند که توسط این شرکت انتخاب شده‌اند و رانندگانی با بالاترین امتیاز ایمنی و نمره ۱۰۰ از ۱۰۰ هستند.

با این حال، یکی از رانندگان در اکتبر گذشته فاش کرد که امتیاز ایمنی ۳۷ از ۱۰۰ دارد و همچنان در حال استفاده از این نسخه است.

امتیاز ایمنی توسط نرم‌افزار داخل خودرو برای رانندگانی که به شرکت اجازه نظارت بر رانندگی خود را می‌دهند، تعیین می‌شود.

سیستم رانندگی کاملا خودران تسلا یک سیستم ارتقاء یافته سیستم "اتوپایلت"(Autopilot) تسلا و مجموعه‌ای از ویژگی‌های پیشرفته سیستم کمک راننده این شرکت است که سابقه‌ای بحث برانگیز و کشنده داشته است.

تاکنون ۱۲ مورد مرگ و میر مربوط به سیستم اتوپایلت تسلا به همراه تعداد زیادی تصادف غیر مرگبار تأیید شده است.

برخلاف ادعای "ایلان ماسک" در ماه ژانویه مبنی بر رکورد بی‌عیب و نقص بودن نسخه بتای FSD ، اداره ملی ایمنی ترافیک بزرگراه دولت ایالات متحده(NHTSA) اولین شکایت خود را در نوامبر ۲۰۲۱ مبنی بر اینکه این سیستم موجب تصادف یک راننده تسلا شده است، دریافت کرد.

انتهای پیام

  • چهارشنبه/ ۲۰ بهمن ۱۴۰۰ / ۱۵:۰۲
  • دسته‌بندی: فناوری
  • کد خبر: 1400112015998
  • خبرنگار : 71589