Как Tesla водителей убивает

Американский регулятор в сфере безопасности автомобильного транспорта занялся инженерным анализом работы автопилота Tesla. И они обнаружили, что автопилот Tesla просто отключается за секунды до аварии.

Эксперты Национального управления по безопасности дорожного движения США (National Highway Traffic Safety Administration, NHTSA) выяснили, что в большинстве зафиксированных случаев система автопилота Tesla отключается за несколько секунд до аварии. Разработчики сделали так, чтобы было нельзя привлечь компанию в суде по пункту обвинения в причинении умышленного ущерба из-за работы автопилота.

Эксперты NHTSA уже несколько лет ведут расследование инцидентов, связанных с электромобилями Tesla в режиме автопилота. Часть из них закончились трагично как для водителей разных моделей Tesla, так и для пострадавших в этих авариях третьих лиц. Однако компания Tesla утверждает, что работа системы помощи водителю Full Self-Driving (FSD) является полностью безопасной.

Теперь NHTSA активировало дополнительное расследование работы автопилота Tesla в проданных в США 830 тыс. электромобилей. Специалисты хотят по их логам выяснить, как именно ведет себя автопилот и связанные с ним системы Tesla в критических ситуациях, и не позволяли ли ранее эти системы снизить эффективность контроля над машиной водителем, который должен был следить за ситуацией, но не понял в итоге, что произошло из-за непредвиденных действий автопилота.

NHTSA выяснило, например, что в большинстве аварий с автомобилями спецслужб (машины экстренной помощи, полицейские и пожарные), которые стояли в правом ряду на парковке или в других местах дороги с включёнными предупредительными огнями, автопилот Tesla, управляя рулевым колесом, системой торможения и газом на определённых типах дорог, только за несколько секунд до столкновения отключился и передал управление водителю. В итоге человек не успевал среагировать и выполнить маневры уклонения или торможения.

Причем в 16 зарегистрированных авариях автопилот отключался за секунду до столкновения, а значит, у водителя вообще не было времени перехватить контроль над машиной, так как он надеялся на его работу, а время реакции обычного человека — около секунды.

Tesla в 2021 году заявляла, что инциденты со смертельным исходом или с фатальными повреждениями транспортных средств не могут быть виной производителя, так как собранные с электромобилей данные телеметрии показали, что автопилот был неактивен в момент каждого столкновения.

NHTSA считает, что система автопилота Tesla специально была разработана таким образом, чтобы отключаться за несколько секунд до столкновения при обнаружении неизбежной аварии.

Эксперты и юристы отрасли пояснили, что даже если это будет доказано, то привлечь Tesla к ответственности за аварии не получится. По условиям использования автопилота Tesla, всю ответственность за инциденты на дороге несут водители, а не компания.

В ноябре прошлого года Tesla ввела в бета-версию FSD обязательное требование к водителю согласиться на видеосъемку, якобы чтобы можно было лучше понять причины аварии и решить спорные ситуации в случаях угрозы безопасности и аварийных ситуаций. Также при активации FSD водители все равно должны держать руки на руле и постоянно следить за дорогой.

PS. А пусть регулятор просто скажет, что «находиться в позиции пассивного наблюдателя, но при этом сохранять situational awareness и готовность к немедленному действию» — это ситуация, ТРЕБУЮЩАЯ большого опыта, ответственности и специального обучения. И это ситуация совсем не комфортная.

Например, в такой ситуации находится летчик-инструктор, позволяющий курсанту выполнять заход на посадку: выхватишь управление раньше — курсант не осознает ошибку и не получит навыка, а выхватишь позже — можно и земли наесться… Так вот, после этих упражнений в «пассивной готовности» — инструктор выходит из самолета с мокрой спиной!

Понятно, что ездить в таком “режиме автопилота” – никому в хрен не упёрлось. Автопилот должен разгрузить водителя, а не заставлять его напрягаться еще больше, чем он напрягается, непосредственно управляя машиной. Такой “автопилот” – это профанация идеи.

Бессмысленно ожидать, что обычный человек будет готов находится в таком режиме сколько-то длительное время. Поэтому автопилот теслы в текущей реализации следует запретить.

Материал: https://masterok.livejournal.com/8074539.html
Настоящий материал самостоятельно опубликован в нашем сообществе пользователем Proper на основании действующей редакции Пользовательского Соглашения. Если вы считаете, что такая публикация нарушает ваши авторские и/или смежные права, вам необходимо сообщить об этом администрации сайта на EMAIL abuse@newru.org с указанием адреса (URL) страницы, содержащей спорный материал. Нарушение будет в кратчайшие сроки устранено, виновные наказаны.

Читайте также:

1 Комментарий
старые
новые
Встроенные Обратные Связи
Все комментарии
Ոሉαዙҿτα Zಭҿҝҿሉҿʓяҝα〄
Ոሉαዙҿτα Zಭҿҝҿሉҿʓяҝα〄
2 лет назад

НепротЭслУ, но всё же..
ИАлясканаша..

Депутат Госдумы Евгений Федоров в беседе со Sputnik Латвия заявил, что Россия «только начала с Литвы», а в будущем может отозвать признание независимости еще трех стран — Латвии, Эстонии и Украины.

«Есть ряд аргументов, из-за которых Литва должна быть первая в этом списке. А после того, как будет отработан механизм, будем отрабатывать его и на других территориях НАТО. И не только НАТО. Вот, Украина, например, также незаконно выходила из СССР», — пояснил депутат.

По его словам, именно с этой страной есть «конкретная территориальная проблема», связанная с законом 1990 года «О порядке решения вопросов, связанных с выходом союзной республики из СССР».

«У нас есть право, как у правопреемника Советского Союза, определить их как конфликтные, спорные. Это относится не ко всем территориям. Если страны угрозы не несут, то с ними мы ничего менять не будем – по-прежнему будет мир и дружба», — отметил Федоров.

Ранее министр иностранных дел Литвы Габриэлюс Ландсбергис заявил, что опасается внесенного в Госдуму РФ законопроекта об отказе от признания независимости Литвы.

Зы! Долой аккупандоф с наших территорий!! Мы не только в шашки умеем.

Чтобы добавить комментарий, надо залогиниться.