Tesla thổi qua xe buýt trường học đã dừng lại, đánh vào bài kiểm tra FSD trong bài kiểm tra

Lái xe tự trị của Tesla Công nghệ luôn luôn được chú ý, nhưng bây giờ có một số mối quan tâm nghiêm trọng phát sinh về sự an toàn. Một cảnh quay video lan truyền gần đây đã cho thấy cách một Tesla thổi qua một chiếc xe buýt trường học dừng lại và đánh vào những người giả cỡ trẻ em trong các bài kiểm tra tự lái đầy đủ. Mọi người bị sốc bởi cảnh gây sốc này. Tương lai của những chiếc xe tự lái chắc chắn có vẻ đầy hứa hẹn, nhưng vụ việc đã tạo ra sự sợ hãi và không chắc chắn trong mọi người.

Chính xác thì chuyện gì đã xảy ra trong bài kiểm tra?

Dự án Dawn đã tiến hành thử nghiệm tự lái đầy đủ (FSD) tại Austin, Texas. Tesla Takedown và chống lại Austin cũng đóng một vai trò trong bài kiểm tra này. Một mô hình Tesla Y, với FSD được kích hoạt, vượt qua một chiếc xe buýt trường học dừng mà không dừng lại. Đèn nhấp nháy màu đỏ của xe buýt đã bật và dấu hiệu dừng được kéo dài, nhưng chiếc xe không phản ứng. Chiếc xe không chỉ không dừng lại mà còn tấn công người giả cỡ trẻ em trong khi họ đang băng qua đường. Cảnh này được thiết lập chính xác cho người giả trong các bài kiểm tra tự lái đầy đủ. Mọi người đang gọi nó là thổi qua một chiếc xe buýt trường học bị dừng, hậu quả có thể nghiêm trọng nếu có trẻ em thực sự thay vì người giả cỡ trẻ em.

Tiêu chuẩn an toàn và hướng dẫn pháp lý bị bỏ qua

Khi một chiếc xe buýt trường học mở rộng biển báo dừng, mọi chiếc xe đều được yêu cầu về mặt pháp lý để dừng xe buýt của trường. Đến một điểm dừng hoàn toàn là một quy tắc cơ bản. Tesla không thể phát hiện ánh sáng đỏ nhấp nháy và dấu hiệu dừng, điều này gây nguy hiểm về các vấn đề an toàn. Trong trường hợp này, hỗ trợ người lái hoặc phần mềm tự lái không thể được tin cậy một cách dễ dàng. Không thể chấp nhận được để coi thường các quy tắc an toàn.

Vai trò của Dự án Dawn và Nhiệm vụ của Dan O'Dowd

Cục Quản lý An toàn Giao thông Quốc lộ (NHTSA) đóng một vai trò rất lớn trong việc điều chỉnh các hệ thống tự lái này. Người sáng lập của nó, Dan O'Dowd, trước đây đã cảnh báo về việc lái xe đầy đủ của Tesla và làm thế nào nó sẽ không mang lại xung quanh xe buýt của trường. Mục tiêu của dự án bình minh là nói với công chúng làm thế nào công nghệ này có thể nguy hiểm. Vâng, một số người đặt câu hỏi về động cơ của họ vì họ có hoạt động kinh doanh công nghệ lái xe tự động, nhưng các bài kiểm tra của họ đã nhấn mạnh những mối quan tâm hợp lệ.

Các vấn đề lịch sử với hệ thống FSD của Tesla

Tesla kiểm tra tự lái đầy đủ đã gây tranh cãi trước đây. Vào tháng 4 năm 2024, một người mẫu Tesla đã đánh một người đi bộ (người đi xe máy) ở chế độ FSD, dẫn đến cái chết của nạn nhân. Chấn thương như cổ gãy và chân bị gãy cũng đã được báo cáo trong các sự cố tương tự. Hiệu suất của hệ thống Tesla không nhất quán và người dùng đã phải thảnh thơi nhiều lần. Tất cả những sự kiện này để lại nghi ngờ về độ tin cậy của công nghệ tự lái.

Phản ứng của Elon Musk và sự chậm trễ của Cybercab

Elon Musk nói trên Twitter rằng Tesla đang hoang tưởng về sự an toàn, và ngày ra mắt của CyberCab có thể thay đổi. Ông nói rằng Tesla đầu tiên sẽ tự lái từ đầu nhà máy đến nhà của khách hàng sẽ sẵn sàng vào ngày 28 tháng 6. Cybercab này sẽ là một robotaxi mới sẽ khởi động dịch vụ Robotaxi của Tesla. Các đối thủ như Waymo dường như trưởng thành và được thử nghiệm hơn so với robotaxis như vậy. Musk cũng nói rằng các kỹ sư Tesla đang thực hiện kiểm tra tăng cường trong các kịch bản trong thế giới thực để cải thiện FSD và các bản cập nhật phần mềm mới sẽ bao gồm phát hiện chướng ngại vật tốt hơn và thời gian phản ứng nhanh hơn.

Cách thức hoạt động của công nghệ FSD của Tesla

Công nghệ lái xe của Tesla phụ thuộc vào nhiều máy ảnh và cảm biến. Thiết lập này phát hiện môi trường, nhưng khi những hình nộm cỡ trẻ em được đưa vào các bài kiểm tra tự lái đầy đủ, hệ thống đã gặp phải những sai sót. Việc FSD không dừng lại hoặc va chạm với các đối tượng cho thấy rõ rằng vẫn cần cải thiện. Những sai sót này cần được cố định để làm cho xe tự lái an toàn hơn. Các kỹ sư của Tesla đang cải thiện cơ chế phản hồi trong bản cập nhật mới dựa trên đầu vào cảm biến thời gian thực.

Giám sát quốc gia & pháp lý: NHTSA và an toàn đường công cộng

Cơ quan An ninh Giao thông Quốc lộ (NHTSA) đóng một vai trò rất quan trọng trong việc điều chỉnh các hệ thống tự lái này. Thử nghiệm như vậy trên đường mà không có sự giám sát sẽ là rủi ro. Các phương tiện như Tesla và Model Y mới phải đáp ứng các tiêu chuẩn an toàn cao. Nếu các xét nghiệm như vậy không được theo dõi đúng cách, an toàn công cộng có thể gặp rủi ro. NHTSA cũng bắt đầu một cuộc điều tra sau sự cố này để xác định liệu phần mềm FSD của Tesla có vi phạm bất kỳ quy tắc nào hay không.

Phản ứng phản ứng công khai và phản ứng trực tuyến

Sau sự cố này, Engadget cũng báo cáo và những người sáng tạo như Mark Rober đã đưa ra ý kiến ​​của họ. Những người trong cộng đồng trực tuyến rất tức giận về FSD của Tesla. Đặc biệt là khi nói đến xe buýt và các khu vực chéo trẻ em, thì phản ứng của mọi người thậm chí còn mạnh mẽ hơn. Tesla lái xe gần trẻ em đang khiến mọi người không thoải mái. Công chúng đã yêu cầu Tesla nên thêm các giao thức an toàn cơ bản vào công nghệ tự lái của mình và đưa ra bất kỳ cập nhật mới nào chỉ sau khi chứng nhận NHTSA.

Suy nghĩ cuối cùng: Chúng ta có nên tin tưởng tự lái không?

Câu hỏi trong ngày là công nghệ lái xe tự trị của Tesla vẫn đáng tin cậy? Khi các sự cố như FSD thổi qua một chiếc xe buýt trường học dừng lại và đánh những hình nộm cỡ trẻ em xảy ra, thật khó để xây dựng niềm tin. Cho đến khi các lỗ hổng như vậy được cố định và chấp thuận theo quy định, tương lai của khả năng di chuyển tự trị sẽ có vẻ đáng ngờ. Tuy nhiên, Tesla đã thông báo rằng họ có kế hoạch khởi chạy phiên bản FSD được cải tiến vào tháng 8 sẽ bao gồm các cảnh báo ghi đè trình điều khiển và nhận dạng dấu hiệu dừng tốt hơn.


Khám phá thêm từ Phụ Kiện Đỉnh

Đăng ký để nhận các bài đăng mới nhất được gửi đến email của bạn.

Gửi phản hồi

Khám phá thêm từ Phụ Kiện Đỉnh

Đăng ký ngay để tiếp tục đọc và truy cập kho lưu trữ đầy đủ.

Tiếp tục đọc