Ну вот мы идем снова. Похоже, что NTSB не может провести комплексную инженерную и этическую экспертизу и подняться над эхо-камерой.

(Причина, по которой я выбрал очень сильную формулировку в заголовке, заключается в вопиющем характере работы NTSB здесь. Просто слишком много отдельных и комбинированных событий, чтобы назвать это недостатком — опять же.)

Они все еще находятся в плену мифа о том, что общественное теневое и безопасное вождение может создать законный автономный автомобиль и что жизни, которые этот процесс уносит, необходимы и служат общему благу. Дело в том, что невозможно проехать триллион миль или потратить 300 миллиардов долларов, чтобы споткнуться и споткнуться во всех сценариях, необходимых для завершения усилий. Кроме того, процесс причиняет вред людям без причины. Первый вопрос — передача. Процесс нельзя сделать безопасным для большинства сложных сценариев, потому что нужно время, чтобы восстановить надлежащую ситуационную осведомленность и поступить правильно, особенно в критических по времени сценариях. не может быть предоставлено. Еще одна опасная область — изучение сценариев аварий. Производителям AV придется запускать тысячи аварийных сценариев тысячи раз, чтобы добиться этого. Это приведет к тысячам ранений и смертей

Выводы отчета

Водитель грузовика

Неудача для Теслы

НАБДД

Неспособность определить процесс проверки работоспособности средств защиты для частично автоматизированных транспортных средств — на что НАБДД заявило, что не будет этого делать. Потому что не видит проблемных тенденций.

Тесла

Использование системы не ограничивается условиями, для которых она предназначена

· Это подчеркивает некомпетентность NTSB. Во-первых, для разработки и тестирования в Tesla используется машинное и глубокое обучение. Это означает, что у системы нет никаких «предназначенных условий», пока система не испытает их снова и снова, чтобы изучить их. Это означает, что они портят их снова и снова, пока не поймут их. Видите здесь бесшабашную иронию?????? Они должны попадать в аварии и ранить или убивать людей снова и снова, пока не перестанут. Возможно, тысячи раз. В последний раз такой сценарий был 3 года назад, когда Джошуа Браун был убит. Посмотрите на светлую сторону, может быть, осталось всего 998? В связи с этим может кто-нибудь сказать мне, почему это нельзя сделать на трассе или в правильной симуляции???????????

Водитель разрешил не касаться руля почти 8 секунд — Tesla заявила, что 8 секунд слишком мало. (На самом деле водитель включил систему только за 10 секунд до аварии.)

· Я помогу вам с математикой. Даже если бы водитель соблюдал ограничение скорости 55 миль в час, вы бы проехали почти 500 ярдов за 8 секунд. Как я уже говорил, этот факт, а также то, что Илон Маск снова и снова нарушает стандарты, показывает, что он и Тесла хотят, чтобы водители не отключались, чтобы они могли испытать на себе последствия аварий и, в конечном итоге, после многих аварий и смертей, изучить их.

Ни предупреждение о лобовом столкновении, ни экстренное торможение не активировались — система вообще не обнаружила грузовик. Тесла фактически ответил, что Модель 3 не может обнаруживать пересекающие транспортные средства или избегать аварий на высоких скоростях (69 миль в час в зоне 55 миль в час). Тесла также заявил, что система камер и радар должны согласовать обнаружение. И ни разу этого не произошло.

· Это не должно быть сюрпризом по двум причинам. Во-первых, как я уже говорил выше, эти системы ничего не знают, пока не узнают это путем проб и множества, многих, многих ошибок. Во-вторых, Telsa не может правильно обнаруживать неподвижные и пересекающиеся объекты. Мало того, они не могут сказать, где они находятся сбоку или какого они размера. Это потому, что они решили не использовать LiDAR, а их системы камер и радаров не могут компенсировать огромный дефицит по небрежности. ПОЗВОЛЬТЕ МНЕ ПРОЯСНИТЬ. Это НЕ задача машинного обучения, которую можно преодолеть путем массовых проб, ошибок и смертей. Аппаратного обеспечения для этого нет и никогда не будет. Таким образом, они будут продолжать вечно сбивать грузовики с прицепами и другие транспортные средства, которые они сбивали и убивали при этом. Полицейские машины, пожарные машины, эвакуаторы, дворники, другие автомобили и барьеры.

Более подробную информацию можно найти здесь. В том числе, как решить все это.

Находятся ли автономная автомобильная промышленность и NHTSA на более высоком уровне, чем Boeing и FAA?

· https://medium.com/@imispgh/are-the-autonomous-vehicle-industry-and-nhtsa-on-higher-ground-than-boeing-and-the-faa-adec0345be1f

Предложение по успешному созданию автономного наземного или воздушного транспортного средства

· https://medium.com/@imispgh/предложение-для-успешного-создания-автономного-наземного-или-воздушного-транспортного средства-539bb10967b1

Автономные транспортные средства должны попадать в аварии, чтобы развивать эту технологию

· https://medium.com/@imispgh/autonomous-cars-need-to-have-accidents-to-develop-this-technology-2cc034abac9b

Моделирование может создать полный цифровой двойник реального мира, если используется DoD / аэрокосмическая технология.

· https://medium.com/@imispgh/simulation-can-create-a-complete-digital-twin-of-the-real-world-if-dod-aerospace-technology-is-used-c79a64551647

Почему производители автономных транспортных средств используют глубокое обучение вместо динамического распознавания и избегают с помощью динамического предотвращения столкновений? Кажется очень неэффективным и излишне опасным?

· https://medium.com/@imispgh/why-are-autonomous-vehicle-makers-using-deep-learning-over-dynamic-sense-and-avoid-with-dynamic-3e386b82495e

Тесла атакует полицейскую машину — сколько надписей на стене нужно НАБДД?

· https://medium.com/@imispgh/tesla-hits-police-car-how-much-writing-on-the-wall-does-nhtsa-need-8e81e9ab3b9

Решения NHTSA Uber — трагедия для всех

· https://medium.com/@imispgh/nhtsa-uber-determinations-are-a-tragedy-for-everyone-717dd302d930

Меня зовут Майкл ДеКорт, я бывший системный инженер, инженер и руководитель программы в компании Lockheed Martin. Я работал над моделированием самолетов, менеджером по разработке программного обеспечения для всего NORAD, Aegis Weapon System и C4ISR для DHS.

Ключевое участие в отрасли

- Lead — модель SAE для автономного вождения SAE на дорогах и задача моделирования

- Член Целевой группы SAE ORAD по проверке и валидации

- Заинтересованное лицо для UL4600 — Создание руководства по безопасности AV

- Член комитета IEEE по искусственному интеллекту и политике автономных систем (AI&ASPC)

- Вручена награда IEEE Barus Ethics Award за усилия по информированию о событиях 11 сентября.

Моя компания Dactle

Мы создаем систему тестирования на основе симуляции L4/5 для аэрокосмической отрасли, министерства обороны США и FAA уровня D, а также систему искусственного интеллекта с матрицей сценариев конечного состояния для решения нескольких критических проблем в отрасли AV/OEM, о которых я упоминал в своих статьях ниже. Это включает в себя замену 99,9% общественного теневого и безопасного вождения. А также решение значительных проблем в реальном времени, точности модели и загрузки/масштабирования, вызванных использованием игровых движков и других архитектур. (Вопросы, которые Unity подтвердит. Сейчас мы работаем вместе. Мы также работаем с компаниями, производящими БПЛА). Если эти проблемы не будут устранены, это приведет к ложной уверенности и различиям в производительности между тем, что, по мнению Плана, произойдет, и тем, что произойдет на самом деле. Если кто-то хочет увидеть демо или обсудить это дальше, пожалуйста, дайте мне знать.