Как Tesla водителей убивает

Американский регулятор в сфере безопасности автомобильного транспорта занялся инженерным анализом работы автопилота Tesla. И они обнаружили, что автопилот Tesla просто отключается за секунды до аварии.
Эксперты Национального управления по безопасности дорожного движения США (National Highway Traffic Safety Administration, NHTSA) выяснили, что в большинстве зафиксированных случаев система автопилота Tesla отключается за несколько секунд до аварии. Разработчики сделали так, чтобы было нельзя привлечь компанию в суде по пункту обвинения в причинении умышленного ущерба из-за работы автопилота.
Эксперты NHTSA уже несколько лет ведут расследование инцидентов, связанных с электромобилями Tesla в режиме автопилота. Часть из них закончились трагично как для водителей разных моделей Tesla, так и для пострадавших в этих авариях третьих лиц. Однако компания Tesla утверждает, что работа системы помощи водителю Full Self-Driving (FSD) является полностью безопасной.
Теперь NHTSA активировало дополнительное расследование работы автопилота Tesla в проданных в США 830 тыс. электромобилей. Специалисты хотят по их логам выяснить, как именно ведет себя автопилот и связанные с ним системы Tesla в критических ситуациях, и не позволяли ли ранее эти системы снизить эффективность контроля над машиной водителем, который должен был следить за ситуацией, но не понял в итоге, что произошло из-за непредвиденных действий автопилота.
NHTSA выяснило, например, что в большинстве аварий с автомобилями спецслужб (машины экстренной помощи, полицейские и пожарные), которые стояли в правом ряду на парковке или в других местах дороги с включёнными предупредительными огнями, автопилот Tesla, управляя рулевым колесом, системой торможения и газом на определённых типах дорог, только за несколько секунд до столкновения отключился и передал управление водителю. В итоге человек не успевал среагировать и выполнить маневры уклонения или торможения.
Причем в 16 зарегистрированных авариях автопилот отключался за секунду до столкновения, а значит, у водителя вообще не было времени перехватить контроль над машиной, так как он надеялся на его работу, а время реакции обычного человека — около секунды.
Tesla в 2021 году заявляла, что инциденты со смертельным исходом или с фатальными повреждениями транспортных средств не могут быть виной производителя, так как собранные с электромобилей данные телеметрии показали, что автопилот был неактивен в момент каждого столкновения.
NHTSA считает, что система автопилота Tesla специально была разработана таким образом, чтобы отключаться за несколько секунд до столкновения при обнаружении неизбежной аварии.
Эксперты и юристы отрасли пояснили, что даже если это будет доказано, то привлечь Tesla к ответственности за аварии не получится. По условиям использования автопилота Tesla, всю ответственность за инциденты на дороге несут водители, а не компания.
В ноябре прошлого года Tesla ввела в бета-версию FSD обязательное требование к водителю согласиться на видеосъемку, якобы чтобы можно было лучше понять причины аварии и решить спорные ситуации в случаях угрозы безопасности и аварийных ситуаций. Также при активации FSD водители все равно должны держать руки на руле и постоянно следить за дорогой.
PS. А пусть регулятор просто скажет, что «находиться в позиции пассивного наблюдателя, но при этом сохранять situational awareness и готовность к немедленному действию» — это ситуация, ТРЕБУЮЩАЯ большого опыта, ответственности и специального обучения. И это ситуация совсем не комфортная.
Например, в такой ситуации находится летчик-инструктор, позволяющий курсанту выполнять заход на посадку: выхватишь управление раньше — курсант не осознает ошибку и не получит навыка, а выхватишь позже — можно и земли наесться… Так вот, после этих упражнений в «пассивной готовности» — инструктор выходит из самолета с мокрой спиной!
Понятно, что ездить в таком “режиме автопилота” – никому в хрен не упёрлось. Автопилот должен разгрузить водителя, а не заставлять его напрягаться еще больше, чем он напрягается, непосредственно управляя машиной. Такой “автопилот” – это профанация идеи.
Бессмысленно ожидать, что обычный человек будет готов находится в таком режиме сколько-то длительное время. Поэтому автопилот теслы в текущей реализации следует запретить.
НепротЭслУ, но всё же..
ИАлясканаша..
Депутат Госдумы Евгений Федоров в беседе со Sputnik Латвия заявил, что Россия «только начала с Литвы», а в будущем может отозвать признание независимости еще трех стран — Латвии, Эстонии и Украины.
«Есть ряд аргументов, из-за которых Литва должна быть первая в этом списке. А после того, как будет отработан механизм, будем отрабатывать его и на других территориях НАТО. И не только НАТО. Вот, Украина, например, также незаконно выходила из СССР», — пояснил депутат.
По его словам, именно с этой страной есть «конкретная территориальная проблема», связанная с законом 1990 года «О порядке решения вопросов, связанных с выходом союзной республики из СССР».
«У нас есть право, как у правопреемника Советского Союза, определить их как конфликтные, спорные. Это относится не ко всем территориям. Если страны угрозы не несут, то с ними мы ничего менять не будем – по-прежнему будет мир и дружба», — отметил Федоров.
Ранее министр иностранных дел Литвы Габриэлюс Ландсбергис заявил, что опасается внесенного в Госдуму РФ законопроекта об отказе от признания независимости Литвы.
Зы! Долой аккупандоф с наших территорий!! Мы не только в шашки умеем.