Ну вот мы идем снова. Похоже, что NTSB не может провести комплексную инженерную и этическую экспертизу и подняться над эхо-камерой.
- https://www.autoblog.com/2020/03/19/ntsb-Investigation-tesla-autopilot-florida-fatal-crash/
- https://www.ntsb.gov/investigations/accidentreports/pages/hwy19fh008-preliminary-report.aspx
(Причина, по которой я выбрал очень сильную формулировку в заголовке, заключается в вопиющем характере работы NTSB здесь. Просто слишком много отдельных и комбинированных событий, чтобы назвать это недостатком — опять же.)
Они все еще находятся в плену мифа о том, что общественное теневое и безопасное вождение может создать законный автономный автомобиль и что жизни, которые этот процесс уносит, необходимы и служат общему благу. Дело в том, что невозможно проехать триллион миль или потратить 300 миллиардов долларов, чтобы споткнуться и споткнуться во всех сценариях, необходимых для завершения усилий. Кроме того, процесс причиняет вред людям без причины. Первый вопрос — передача. Процесс нельзя сделать безопасным для большинства сложных сценариев, потому что нужно время, чтобы восстановить надлежащую ситуационную осведомленность и поступить правильно, особенно в критических по времени сценариях. не может быть предоставлено. Еще одна опасная область — изучение сценариев аварий. Производителям AV придется запускать тысячи аварийных сценариев тысячи раз, чтобы добиться этого. Это приведет к тысячам ранений и смертей
Выводы отчета
Водитель грузовика
Неудача для Теслы
НАБДД
Неспособность определить процесс проверки работоспособности средств защиты для частично автоматизированных транспортных средств — на что НАБДД заявило, что не будет этого делать. Потому что не видит проблемных тенденций.
Тесла
Использование системы не ограничивается условиями, для которых она предназначена
· Это подчеркивает некомпетентность NTSB. Во-первых, для разработки и тестирования в Tesla используется машинное и глубокое обучение. Это означает, что у системы нет никаких «предназначенных условий», пока система не испытает их снова и снова, чтобы изучить их. Это означает, что они портят их снова и снова, пока не поймут их. Видите здесь бесшабашную иронию?????? Они должны попадать в аварии и ранить или убивать людей снова и снова, пока не перестанут. Возможно, тысячи раз. В последний раз такой сценарий был 3 года назад, когда Джошуа Браун был убит. Посмотрите на светлую сторону, может быть, осталось всего 998? В связи с этим может кто-нибудь сказать мне, почему это нельзя сделать на трассе или в правильной симуляции???????????
Водитель разрешил не касаться руля почти 8 секунд — Tesla заявила, что 8 секунд слишком мало. (На самом деле водитель включил систему только за 10 секунд до аварии.)
· Я помогу вам с математикой. Даже если бы водитель соблюдал ограничение скорости 55 миль в час, вы бы проехали почти 500 ярдов за 8 секунд. Как я уже говорил, этот факт, а также то, что Илон Маск снова и снова нарушает стандарты, показывает, что он и Тесла хотят, чтобы водители не отключались, чтобы они могли испытать на себе последствия аварий и, в конечном итоге, после многих аварий и смертей, изучить их.
Ни предупреждение о лобовом столкновении, ни экстренное торможение не активировались — система вообще не обнаружила грузовик. Тесла фактически ответил, что Модель 3 не может обнаруживать пересекающие транспортные средства или избегать аварий на высоких скоростях (69 миль в час в зоне 55 миль в час). Тесла также заявил, что система камер и радар должны согласовать обнаружение. И ни разу этого не произошло.
· Это не должно быть сюрпризом по двум причинам. Во-первых, как я уже говорил выше, эти системы ничего не знают, пока не узнают это путем проб и множества, многих, многих ошибок. Во-вторых, Telsa не может правильно обнаруживать неподвижные и пересекающиеся объекты. Мало того, они не могут сказать, где они находятся сбоку или какого они размера. Это потому, что они решили не использовать LiDAR, а их системы камер и радаров не могут компенсировать огромный дефицит по небрежности. ПОЗВОЛЬТЕ МНЕ ПРОЯСНИТЬ. Это НЕ задача машинного обучения, которую можно преодолеть путем массовых проб, ошибок и смертей. Аппаратного обеспечения для этого нет и никогда не будет. Таким образом, они будут продолжать вечно сбивать грузовики с прицепами и другие транспортные средства, которые они сбивали и убивали при этом. Полицейские машины, пожарные машины, эвакуаторы, дворники, другие автомобили и барьеры.
Более подробную информацию можно найти здесь. В том числе, как решить все это.
Находятся ли автономная автомобильная промышленность и NHTSA на более высоком уровне, чем Boeing и FAA?
Предложение по успешному созданию автономного наземного или воздушного транспортного средства
Автономные транспортные средства должны попадать в аварии, чтобы развивать эту технологию
Моделирование может создать полный цифровой двойник реального мира, если используется DoD / аэрокосмическая технология.
Почему производители автономных транспортных средств используют глубокое обучение вместо динамического распознавания и избегают с помощью динамического предотвращения столкновений? Кажется очень неэффективным и излишне опасным?
Тесла атакует полицейскую машину — сколько надписей на стене нужно НАБДД?
Решения NHTSA Uber — трагедия для всех
· https://medium.com/@imispgh/nhtsa-uber-determinations-are-a-tragedy-for-everyone-717dd302d930
Меня зовут Майкл ДеКорт, я бывший системный инженер, инженер и руководитель программы в компании Lockheed Martin. Я работал над моделированием самолетов, менеджером по разработке программного обеспечения для всего NORAD, Aegis Weapon System и C4ISR для DHS.
Ключевое участие в отрасли
- Lead — модель SAE для автономного вождения SAE на дорогах и задача моделирования
- Член Целевой группы SAE ORAD по проверке и валидации
- Заинтересованное лицо для UL4600 — Создание руководства по безопасности AV
- Член комитета IEEE по искусственному интеллекту и политике автономных систем (AI&ASPC)
- Вручена награда IEEE Barus Ethics Award за усилия по информированию о событиях 11 сентября.
Моя компания Dactle
Мы создаем систему тестирования на основе симуляции L4/5 для аэрокосмической отрасли, министерства обороны США и FAA уровня D, а также систему искусственного интеллекта с матрицей сценариев конечного состояния для решения нескольких критических проблем в отрасли AV/OEM, о которых я упоминал в своих статьях ниже. Это включает в себя замену 99,9% общественного теневого и безопасного вождения. А также решение значительных проблем в реальном времени, точности модели и загрузки/масштабирования, вызванных использованием игровых движков и других архитектур. (Вопросы, которые Unity подтвердит. Сейчас мы работаем вместе. Мы также работаем с компаниями, производящими БПЛА). Если эти проблемы не будут устранены, это приведет к ложной уверенности и различиям в производительности между тем, что, по мнению Плана, произойдет, и тем, что произойдет на самом деле. Если кто-то хочет увидеть демо или обсудить это дальше, пожалуйста, дайте мне знать.