Мораторий

«Автопилот» Tesla и связанная с ним система автоматического экстренного торможения настолько опасны и широко распространены, что НАБДД должно немедленно ввести мораторий на время проведения более широкого расследования.

Быстрое расследование

Причина, по которой расследование должно быть быстрым, заключается в том, что недостатки подхода к проектированию и разработке очевидны и системны. Таким образом, расследование должно занять не более пары недель. Если это займет больше времени, поскольку предыдущие расследования занимают больше года, кто-то должен спросить НАБДД, почему. Есть законная причина или они каменная стена? Или, возможно, недостаточно компетентны для исследования автономных систем?

Проблема/сбои при работе со стационарными/пересекающимися объектами — системный недостаток конструкции сенсорной системы

Система регулярно игнорирует стационарные/пересекающиеся объекты. Эта проблема включает в себя сочетание двух областей: классификации и распознавания объектов и определения местоположения объектов. Оба теперь обрабатываются системой камеры и глубоким обучением. До удаления радара Тесла использовал радар для определения местоположения объекта. Он также признал, что система боролась в этих областях из-за радара. (Tesla также отказывается использовать LiDAR. Следует отметить, однако, что большинство производителей AV используют LiDAR для определения положения и глубины объекта, а не для обнаружения, классификации или положения конкретного объекта. Это потому, что они не создают «следы», как это делают радары по своей сути. Некоторые производители AV сейчас движутся в этом направлении.) Радар, который использовал Тесла, имел только пару передатчиков и приемников. Это заставило диаграмму направленности быть широкой. По мере увеличения расстояния этот луч охватывает всю дорогу, области по бокам и все объекты внутри нее. Это заставляет систему объединять объекты, а также быть не в состоянии определить, находятся ли они на дороге, рядом с дорогой и т. д. Во избежание ложного срабатывания система часто игнорирует объекты. Это оставляет камерам делать всю работу. (Я должен отметить, что системы режима L1+ используют эти радары низкой точности и имеют аналогичные проблемы. Однако они, как правило, относятся к системам L1 ADAS, где водители не только не уступают управление и контроль над транспортным средством.)

Учитывая обилие информации по этой проблеме, как о произошедших авариях, так и о связанных с ними отключениях водителей, до и после того, как Tesla удалила вход радара, ясно, что эта проблема носит системный характер. Если бы все данные о разъединении были проверены, НАБДД, скорее всего, увидело бы, что проблема является банальной. Это означает, что у каждой машины с AP/FSD были бы подобные аварии, если бы водители не отключились. Все 500к+ из них. Одного этого должно быть достаточно, чтобы ввести мораторий на «автопилот». (Что касается AEB, необходимо определить, есть ли в AEB неотъемлемая ошибка или она существует только при использовании AP.) Кроме того, это легкость, с которой это может быть исследовано. НАБДД нужно только получить данные об отключении автопилота, конструкции и системе транспортного средства. А также данные о конструкции AEB и производительности системы, чтобы убедиться, что она является системной. (Помимо того, что Tesla признала проблему в прессе, руководствах и отчетах NTSB о сбоях.) В худшем случае сценарии можно легко воспроизвести на испытательном треке. Даже если основная причина заключается в том, что система глубокого обучения не распознает некоторые объекты, а система камер определяет их положение, мораторий и простота расследования все еще применяются. (Следует отметить, что системы камер борются с прямым светом, погодой, сложными структурами объектов и 2D-объектами. Это приводит к тому, что объекты не классифицируются, не обнаруживаются или их положение неверно. Недавно это включало луну, которую путали с желтым светом. В результате машина тормозит.

Примечание. В какой-то момент Тесла сказал, что они оценили радар Arbe с плотной решеткой. Они предпочли не использовать его. Это была серьезная ошибка, которую НАБДД необходимо исправить. Почему не использовали. Я считаю, что это связано с тем, что на основной плате Tesla возникла серьезная проблема с обработкой. Он не может принять другой датчик, каким бы он ни был. И имейте в виду, что радары производят треки, а не огромные объемы битов необработанных данных, таких как LiDAR. Это означает, что радары создают низкую нагрузку на процессор. Другим аргументом в пользу этого пункта является избавление Теслы от существующего радара. Хотя у него не было высокой точности, как я упоминал выше, у него были возможности, которых нет у камер. Тесла сказал, что они избавились от радара, потому что он не работал должным образом. (Это после того, как несколько лет назад было сказано, что радар имеет решающее значение). Почему они просто не настроили фильтр Калмана, чтобы свести к минимуму проблемы с радаром? Опять же, я думаю, это потому, что основная плата не может с этим справиться.

Ненужное использование морских свинок для разработки и тестирования

Помимо фатального и системного недостатка сенсорной системы, Tesla использует своих клиентов, других людей в автомобилях и общественность вокруг них в качестве живых морских свинок. Tesla и большая часть отрасли используют машинное обучение для обучения систем работе со сценариями. Машинное обучение «обучается», испытывая сценарии, пытаясь правильно управлять ими, терпя неудачу, исправляясь и продолжая этот цикл до завершения. Требуемое повторение может быть сотни, если не тысячи раз. И из-за текущей неспособности систем делать выводы или думать, в отличие от сопоставления сценариев и объектов и связанного с этим отзыва выполнения, для обучения требуется огромное количество повторений методом проб и ошибок. В дополнение к этому, особенно при глубоком обучении, системы сканируют объекты изнутри и классифицируют их. Они делают это, чтобы изучить модели движения различных типов объектов или установить правила. Примерами могут быть бегущий человек и знак. Чтобы применить эти ожидания или правила движения, они должны запомнить достаточно подробностей о каждом элементе, чтобы правильно их классифицировать. Этот процесс имеет неприятный непреднамеренный побочный эффект. Это приводит к тому, что система теряется или сбивается с толку, когда видит очень небольшие различия в новом объекте или в том, что она считает новым объектом. Например, грязь или ветки перед вывеской или узорами на одежде. Чтобы справиться с этим, системе необходимо изучить безумное количество объектов и их вариаций. Это подводит нас к тому, почему этот процесс несостоятелен с точки зрения времени и денег. RAND подсчитал, что потребуется 500 миллиардов миль, чтобы достичь L4, где система водит в 10 раз лучше, чем человек. Гил Пратт из Toyota сказал, что это будет триллион миль. По моим очень консервативным подсчетам, только для транспортных средств, датчиков и водителей и без инженерных затрат, которые составляют основную часть расходов, получается 300 миллиардов долларов за 10 лет.

Вернемся к безопасности и использованию подопытных людей. Чтобы многие из сценариев сбоя были изучены, система должна их испытать. В то время как одни сценарии охватывают другие, современная технология моделирования помогает, и система может достаточно узнать с момента отключения человека, чтобы избежать последствий аварии, многие из потоков сценариев должны быть испытаны в реальном мире. Это со временем приведет к травмам и гибели тысяч людей, особенно когда потоки включают в себя последовательность взаимодействий и действий по управлению, торможению или ускорению. (Представьте себе сложные сценарии на снегу, когда теряется сцепление с дорогой.) Причина, по которой большая часть этого не выполняется в моделировании, двояка. Считается, что нет системы моделирования, достаточно хорошей, чтобы заменить реальный мир, о котором я расскажу далее, и вы не можете придумать или создать достаточное количество сценариев в реальном мире, особенно в крайних случаях. Вы должны использовать реальный мир, чтобы наткнуться на них.

Позвольте мне сначала обратиться к последнему убеждению. Вопрос здесь время и деньги снова. В День промышленности Tesla год назад Илон Маск использовал пример тягача с прицепом, буксирующего несколько других тягачей с прицепом, в качестве крайнего случая. Хотя я не считаю, что этот пример достаточно редок, чтобы быть крайним случаем, давайте рассмотрим его. Из-за того, что машинное и глубокое обучение требует большого количества повторений для изучения сценариев и объектов, а также необходимости изучать их варианты, как вы думаете, сколько жизней потребуется, чтобы изучить только пример Илона? Сколько эонов пройдет, прежде чем машина сможет наткнуться именно на этот набор объектов? Теперь, сколько еще, чтобы наткнуться на огромное количество цветов, позиций, количества, окружающей среды и других вариаций? Теперь умножьте это на все сценарии и их вариации, которые необходимо изучить самостоятельно, чтобы добраться до L4. Это безумие. Так . . . как мы справляемся с этим в моделировании? Во-первых, мы по-прежнему используем реальный мир. Только его гораздо меньше. Мы по-прежнему используем теневых водителей (которые сохраняют контроль над транспортными средствами), чтобы изучать реальный мир. Затем мы берем эти данные, множество имеющихся у нас данных об объектах, местоположениях, погоде, дорожных схемах, схемах вождения, данных о авариях и т. д., и создаем сценарии и их вариации, используя инструменты создания сценариев и покрытия и Монте-Карлос. Имейте в виду, что нам не нужно изучать все возможные сценарии. Этого достаточно, чтобы продемонстрировать должную осмотрительность и статистическую вероятность того, что система в несколько раз лучше, чем человек в управлении автомобилем. Да, это много работы. Но это выполнимо. Там, где это невозможно в реальном мире.

(Следует отметить, что прогресс может быть достигнут с использованием игровых систем. Проблема возникает, когда точность или время работы системы ухудшается до такой степени, что возникают отрицательные результаты разработки и тестирования. Часто это будет скрыто и вызовет ложную уверенность. Если нет Это может привести к трагедиям в реальном мире. Это связано с тем, что система AV будет реализовывать план, который недостаточно близок к реальному миру. в случае датчиков, особенно когда есть сложности и помехи, это может быть совершенно неправильно.)

Другая причина, по которой люди не думают, что симуляция может воспроизвести реальный мир в достаточной степени, чтобы заменить большую его часть. (И под этим я подразумеваю 99,9% или более.) заключается в том, что они считают, что не существует существующей технологии моделирования, которая могла бы справиться с вычислительной нагрузкой или создавать модели с достаточно высокой точностью физики. (Хорошо известно, что разработчики визуальных движков, такие как Unreal и Unity, могут создавать достаточно реалистичные визуальные сцены и объекты.) Учитывая используемую технологию, они правы. Но это загвоздка. Используемая сейчас технология основана на архитектуре игровых движков и подходах к моделированию. Если используется технология моделирования на уровне аэрокосмической отрасли, Министерства обороны США или Федерального управления гражданской авиации, все это решается. (Подробнее об этом ниже. И, пожалуйста, не обращайте внимания на тот факт, что это самолеты, или что авиаперелеты не так сложны, как улицы, по которым мы ездим. Как называется модель, не имеет значения. А Министерство обороны занимается военными играми в городских условиях, которые более сложны, чем то, что нужно этой области, потому что они включают в себя радиоэлектронную борьбу.)

Наконец, в USDOT есть небольшая группа, которая получает все это. Это называется ГОЛОСА. Они пытаются использовать DoD для создания среды моделирования, чтобы помочь отрасли повлиять на необходимый сдвиг парадигмы технологий разработки, тестирования и моделирования. Проблема в том, что их заглушает более крупная организация USDOT и эхо-камеры NHTSA.

Подробнее здесь. В том числе, как это сделать правильно.

Индустрию автономных транспортных средств можно спасти, сделав противоположное тому, что делается сейчас для создания этой технологии.

· https://medium.com/@imispgh/the-autonomous-vehicle-industry-can-be-saved-by-doing-the-opposite-of-what-is-bench-done-now-b4e5c6ae9237

Журнал SAE Autonomous Vehicle Engineering — новое поколение Simulation (с участием Dactle)

· https://www.sae.org/news/2020/08/new-gen-av-simulation

Как неудавшаяся операция по спасению иранских заложников в 1980 году может спасти индустрию автономных транспортных средств

· https://imispgh.medium.com/how-the-failed-iranian-hostage-rescue-in-1980-can-save-the-autonomous-vehicle-industry-be76238dea36

USDOT представляет VOICES Proof of Concept для индустрии автономных транспортных средств. Смена парадигмы?

· https://imispgh.medium.com/usdot-introduces-voices-proof-of-concept-for-autonomous-vehicle-industry-a-paradigm-shift-87a12aa1bc3a

Усилия по разработке «автопилота» Tesla необходимо остановить, а людей привлечь к ответственности

· https://medium.com/@imispgh/tesla-autopilot-development-effort-needs-to-be-stopped-and-people-arrested-f280229d2284

NHTSA открывает расследование столкновений «автопилота» Tesla с припаркованными машинами скорой помощи

· https://imispgh.medium.com/nhtsa-opens-probe-on-teslas-autopilot-crashes-with-parked-emergency-vehicles-fc4885a8e055

Меня зовут Майкл ДеКорт, я бывший системный инженер, инженер и руководитель программы в компании Lockheed Martin. Я работал над моделированием самолетов, менеджером по разработке программного обеспечения для всего NORAD, Aegis Weapon System и C4ISR для DHS.

Участие отрасли — воздух и земля

- Основатель целевой группы SAE по моделированию автономного вождения на дорогах

- Член Целевой группы SAE ORAD по проверке и валидации

- Член UNECE WP.29 SG2 Virtual Testing

- Заинтересованные стороны USDOT VOICES (Виртуальная открытая инновационная совместная среда для обеспечения безопасности)

- Член SAE G-34/EUROCAE WG-114 Искусственный интеллект в авиации

- Член Консорциума телеопераций

- Член CIVATAglobal — гражданской ассоциации воздушного транспорта

- Заинтересованное лицо для UL4600 — Создание руководства по безопасности AV

- Член комитета IEEE по искусственному интеллекту и политике автономных систем

- Вручена награда IEEE Barus Ethics Award за усилия Министерства обороны и Министерства внутренней безопасности США по информированию о нарушениях после терактов 11 сентября.