Consumer Reports prihatin Tesla menggunakan pemilik untuk menguji perangkat lunak self-driving yang tidak aman – TechCrunch

0
6


Sebuah Tesla dalam mode self-driving penuh membuat belok kiri dari jalur tengah di jalan San Francisco yang sibuk. Itu melompat di jalur bus di tempat yang tidak seharusnya. Itu berbelok di tikungan dan hampir menabrak kendaraan yang diparkir, menyebabkan pengemudi terhuyung-huyung ke kemudi. Adegan-adegan ini telah ditangkap oleh peninjau mobil AI Addict, dan skenario lain seperti itu muncul di YouTube. Orang mungkin mengatakan bahwa ini semua adalah kesalahan yang mungkin dilakukan oleh manusia mana pun di ponsel. Tapi kami berharap lebih dari tuan AI kami.

Awal bulan ini, Tesla mulai mengirimkan pembaruan perangkat lunak over-the-air untuk Full Self-Driving-nya (FSD) beta versi 9 perangkat lunak, sistem bantuan pengemudi canggih yang hanya mengandalkan kamera, bukan kamera dan radar seperti sistem ADAS Tesla sebelumnya.

Sebagai reaksi terhadap video yang menampilkan perilaku mengemudi yang tidak aman, seperti belokan kiri yang tidak terlindungi, dan laporan lain dari pemilik Tesla, Consumer Reports mengeluarkan pernyataan pada hari Selasa mengatakan bahwa peningkatan perangkat lunak tampaknya tidak cukup aman untuk jalan umum, dan akan secara independen menguji pembaruan perangkat lunak pada SUV Model Y setelah menerima pembaruan perangkat lunak yang diperlukan.

Organisasi konsumen mengatakan prihatin Tesla menggunakan pemilik yang ada dan kendaraan mereka sebagai kelinci percobaan untuk menguji fitur-fitur baru. Membuat poin mereka untuk mereka, CEO Tesla Elon Musk mendesak pengemudi untuk tidak berpuas diri saat mengemudi karena “akan ada masalah yang tidak diketahui, jadi harap paranoid.” Banyak pemilik Tesla tahu apa yang mereka hadapi karena mereka mendaftar untuk Program Akses Awal Tesla yang memberikan perangkat lunak beta untuk umpan balik, tetapi pengguna jalan lain belum memberikan persetujuan mereka untuk uji coba semacam itu.

Pembaruan Tesla dikirim ke pengemudi di seluruh negeri. Perusahaan kendaraan listrik tidak menanggapi permintaan untuk informasi lebih lanjut tentang apakah itu memperhitungkan peraturan mengemudi sendiri atau tidak di negara bagian tertentu – 29 negara bagian telah memberlakukan undang-undang yang terkait dengan mengemudi otonom, tetapi mereka sangat berbeda tergantung pada negara bagian. Perusahaan teknologi self-driving lainnya seperti Cruise, Waymo dan Argo AI mengatakan kepada CR bahwa mereka menguji perangkat lunak mereka di trek pribadi atau menggunakan pengemudi keselamatan terlatih sebagai monitor.

“Teknologi mobil berkembang sangat cepat, dan otomatisasi memiliki banyak potensi, tetapi pembuat kebijakan perlu melangkah untuk menerapkan aturan keselamatan yang kuat dan masuk akal,” kata William Wallace, manajer kebijakan keselamatan di CR dalam sebuah pernyataan. “Jika tidak, beberapa perusahaan hanya akan memperlakukan jalan umum kami seolah-olah itu adalah tempat pembuktian pribadi, dengan sedikit meminta pertanggungjawaban mereka untuk keselamatan.”

Pada bulan Juni, Administrasi Keselamatan Lalu Lintas Jalan Raya Nasional mengeluarkan perintah umum tetap yang mengharuskan produsen dan operator kendaraan dengan SAE Level 2 ADAS atau SAE level 3, 4 atau 5 sistem mengemudi otomatis untuk melaporkan kecelakaan.

“Misi inti NHTSA adalah keselamatan. Dengan mengamanatkan pelaporan kecelakaan, badan tersebut akan memiliki akses ke data penting yang akan membantu dengan cepat mengidentifikasi masalah keselamatan yang dapat muncul dalam sistem otomatis ini,” kata Dr. Steven Cliff, penjabat administrator NHTSA, dalam sebuah pernyataan. “Faktanya, pengumpulan data akan membantu menanamkan kepercayaan publik bahwa pemerintah federal mengawasi dengan cermat keamanan kendaraan otomatis.”

Perangkat lunak FSD beta 9 telah menambahkan fitur yang mengotomatiskan lebih banyak tugas mengemudi, seperti navigasi persimpangan dan jalan-jalan kota dengan pengawasan pengemudi. Tetapi dengan grafik yang sangat bagus yang merinci di mana mobil itu dalam kaitannya dengan pengguna jalan lain, hingga seorang wanita di skuter yang lewat, pengemudi mungkin lebih terganggu oleh teknologi yang dimaksudkan untuk membantu mereka pada saat-saat penting.

“Tesla hanya meminta orang untuk memperhatikan saja tidak cukup — sistem perlu memastikan orang terlibat saat sistem beroperasi,” kata Jake Fisher, direktur senior Pusat Tes Otomatis CR dalam sebuah pernyataan. “Kita sudah tahu bahwa pengujian pengembangan sistem self-driving tanpa dukungan pengemudi yang memadai dapat – dan akan – berakhir dengan kematian.”

Fisher mengatakan Tesla harus menerapkan sistem pemantauan pengemudi di dalam mobil untuk memastikan pengemudi mengawasi jalan untuk menghindari kecelakaan seperti yang melibatkan Kendaraan uji swakemudi Uber, yang menabrak dan membunuh seorang wanita pada 2018 di Phoenix saat dia menyeberang jalan.





Sumber

LEAVE A REPLY

Please enter your comment!
Please enter your name here