Пять лет назад я заявил, что я против того, чтобы метод разработки и тестирования, используемый в отрасли для разработки и тестирования автономных транспортных средств, был несостоятельным с точки зрения безопасности, времени и затрат. Можно просто не тратить время, деньги или жизни, необходимые для того, чтобы приблизиться к автопилоту или SAE L4. И что решением было моделирование, но нынешние технологии и подходы к моделированию были из игровой индустрии, а не Министерства обороны США, и поэтому были недостаточно хороши. В течение этого времени пресса, «эксперты по безопасности», адвокаты, отрасль в целом, правительственные чиновники и т. д. — все превозносили Теслу как яркий пример того, что лидер в космосе первым и в любой момент получит полную автономию. Теперь все эти же люди против Теслы. Попытка убрать с дороги их «Автопилот» и «Полное самостоятельное вождение». Вот статья, которая подводит итог. (Я выбрал Electrek, потому что они могут быть одними из самых больших насосов Tesla, они также были довольно объективны в прошлом году или около того в отношении производительности системы, но до сих пор не могут поставить этику и здравый смысл выше насоса.)
Полное самостоятельное вождение Tesla сталкивается с растущим давлением со многих сторон
https://electrek.co/2022/08/12/tesla-full-self-driving-effort-faces-mounting-pressure-many-fronts/
Поскольку я никогда не хотел, чтобы этот подход к разработке использовался, особенно для морских свинок, я полностью согласен с тем, что эти системы следует убрать с дороги. (Я объясню больше в своих статьях ниже.) И, безусловно, должен быть введен мораторий, пока НАБДД колеблется в расследовании множества повторяющихся сценариев, многие из которых привели к ранению или гибели людей. (Почему никто, кроме меня, не говорит об этом?) Однако мне кажется, что перед NHTSA стоит некоторая дилемма. Что-то, чего они не могут избежать, как и остальные. Это легальное расщепление волос. Что именно собирается сделать NHTSA, чтобы быть эффективным и задействовать только Tesla, особенно с точки зрения технического, инженерного подхода и должной осмотрительности? Да, использование имен — это низко висящий фрукт. Но решит ли это проблему или просто поднимет настроение людям? И теперь, когда Waymo, Argo, Cruise, Motional, Baidu и т. д. говорят, что они беспилотные, не только с нулевыми доказательствами, у некоторых были эпизоды, и осведомители указывают на обратное. (Забавно, что люди, занимающиеся «самопромывкой», недовольны только Теслой, которая делает это.) Что, если Тесла подаст в суд на NHTSA за недобросовестную торговую практику, но заявит, что между компаниями нет принципиальной разницы? Даже если NHTSA решит добавить, что у Tesla больше нет радара, это будет не очень эффективно, учитывая, что большинство компаний используют радары с плохой точностью, которые имеют аналогичные проблемы с пересечением и стационарными объектами. Очень немногие используют радар для визуализации или улучшают LiDAR для создания треков объектов.
Что касается аргумента о том, что у других производителей AV показатели безопасности намного лучше, чем у Tesla. Это верно лишь случайно, зависит от масштаба и не продлится долго. Большинство других компаний различными способами избегают множества сценариев сбоев. Практика, которая не может длиться вечно, если они хотят изучить эти сценарии. (Я полагаю, большое «если». Может быть, солгать и сказать, что вы это сделали, более прибыльно?) Эти различные средства предотвращения аварий включают в себя гораздо меньше транспортных средств в общественном достоянии, более совершенные сенсорные системы, лучший мониторинг водителей и более короткие периоды тревоги, обученный « безопасные водители» и NDA с гонщиками. Последний пункт запрещает массовую рекламу, которую Тесла получает от водителей и т. д., публикующих видео. И никто из них не раскрывает, когда этот «безопасный водитель» избегал аварии в реальном мире или в симуляции.
Все, что происходит сейчас, — это ажиотаж, манипулирование общественностью, постепенные прозрения, выборочное возмущение и лицемерное вздор. Пресса и промышленность знают, что фундаментальный процесс разработки и использования морских свинок одинаков. Но они хотят защитить остальную часть отрасли от разрушения Теслой, пока их самих не постигнет та же участь. В течение этого времени они могут рисковать, продолжать вводить мир в заблуждение, получать больше инвестиций и надеяться на чудо вместо того, чтобы говорить, что они были неправы, и менять свой подход к разработке и моделированию. Общественность и правительство будут вынуждены манипулировать отраслью и прессой до тех пор, пока с другими компаниями не произойдет достаточно трагедий, чтобы сработать этот триггер. Если вы посмотрите, как мы работаем в США в отношении безопасности и спекуляции, это стандартная операция. Достаточно взглянуть на историю авиастроения. (Что-то, что FAA, возможно, само не узнало, если вы посмотрите на самолет eVTOL и развитие автономии сейчас.)
Подробнее о моем POV здесь. В том числе, как это сделать правильно.
Редактор журнала SAE Autonomous Vehicle Engineering назвал меня дальновидным в отношении моей позиции в отношении Tesla и несостоятельного подхода к разработке и тестированию в отрасли беспилотных транспортных средств — (Страница 2) https://assets.techbriefs.com/EML/2021/digital_editions/ave /АВЭ-202109.pdf
Усилия по разработке «автопилота» Tesla необходимо остановить, а людей привлечь к ответственности
Tesla обновляет камеры и возвращает радар? Я думал, что системы достаточно, чтобы добраться до L4? Это признание некомпетентности и небрежности, особенно в отношении NHTSA.
· https://imispgh.medium.com/tesla-upgrading-cameras-and-putting-radar-back-96368435daee
NHTSA и Tesla снова зашли в угол. Tesla дает NHTSA способ обойти это, не подвергая опасности отрасль.
Тесла, а не «безопасный водитель», вероятно, должен быть обвинен в первом случае непредумышленного убийства «полного самостоятельного вождения».
НАБДД должно немедленно ввести мораторий на «Автопилот» и сообщить о первоначальных результатах расследования в течение 30 дней.
Индустрию автономных транспортных средств можно спасти, сделав противоположное тому, что делается сейчас для создания этой технологии.
Как неудавшаяся операция по спасению иранских заложников в 1980 году может спасти индустрию автономных транспортных средств
Меня зовут Майкл ДеКорт, я ветеран военно-морского флота (ASW C4ISR) и бывший системный инженер, инженер и руководитель программы в Lockheed Martin. Я работал в авиамоделировании, был менеджером по разработке программного обеспечения для всего NORAD, менеджером проекта по разработке программного обеспечения для базовой системы Aegis Weapon System и системным инженером C4ISR для Министерства обороны / Министерства внутренней безопасности и Государственного департамента США (борьба с терроризмом). И старший консультант по техническим проектам FTI для Целевой группы армейского ИИ в CMU NREC (Национальный инженерный центр робототехники).
Участие автономной отрасли — воздух и земля
- Основатель целевой группы SAE по моделированию автономного вождения на дорогах
- Член Целевой группы SAE ORAD по проверке и валидации
- Член UNECE WP.29 SG2 Virtual Testing
- Заинтересованные стороны USDOT VOICES (Виртуальная открытая инновационная совместная среда для обеспечения безопасности)
- Член SAE G-35, моделирование, симуляция, обучение новым технологиям AV
- Член SAE G-34/EUROCAE WG-114 Искусственный интеллект в авиации
- Член Консорциума телеопераций
- Член CIVATAglobal — гражданской ассоциации воздушного транспорта
- Заинтересованное лицо для UL4600 — Создание руководства по безопасности AV
- Член комитета IEEE по искусственному интеллекту и политике автономных систем
Редактор журнала SAE Autonomous Vehicle Engineering назвал меня дальновидным в отношении моей позиции в отношении Tesla и несостоятельного подхода к разработке и тестированию в отрасли беспилотных транспортных средств — (Страница 2) https://assets.techbriefs.com/EML/2021/digital_editions/ave /АВЭ-202109.pdf
Вручена награда IEEE Barus Ethics Award за усилия Министерства обороны и Министерства внутренней безопасности США по информированию о нарушениях после терактов 11 сентября.