Публикации по теме 'tensorrt'


Как преобразовать вашу пользовательскую модель в TensorRT
ML СОВЕТЫ И ТРЮКИ / TPAT Как преобразовать вашу пользовательскую модель в TensorRT Облегчите свою боль TensorRT с помощью TPAT Если вы когда-либо работали с TensorRT, то наверняка сталкивались с ошибкой, похожей на эту, верно? [E] [TRT] UffParser: ошибка валидатора: изменение размера/ResizeNearestNeighbor: неподдерживаемая операция _ResizeNearestNeighbor В этом блоге мы покажем вам, как преобразовать вашу модель с пользовательскими операторами в TensorRT и как избежать этих..

Оптимизация любой модели TensorFlow с помощью инструментов преобразования TensorFlow и TensorRT
Оптимизация модели и снижение точности с FP32 до FP 16 для ускорения и уменьшения размера графа. О чем эта статья? Для кого это предназначено? Это больше, чем статья, это в основном как оптимизировать модель Tensorflow с помощью инструментов преобразования TF Graph и NVIDIA Tensor RT. Это немного тяжелое чтение и предназначено для инженеров по Data Science, а не для Data Scientist. Кроме того, в большей степени, чем практические советы, он также иллюстрирует ошибки и неожиданные..

Заметки о конференции @Scale 2018
На прошлой неделе я посетил конференцию @scale2018 в Сан-Хосе. Было довольно много интересных докладов, особенно о конкурирующих компьютерных архитектурах для выполнения глубоких нейронных сетей, ускорении вывода во время выполнения и компиляторе машинного обучения, оптимизированном для различных аппаратных целей. В то же время я был немного разочарован тем, что многие доклады были чисто маркетинговым материалом о предложениях машинного обучения в облаке от крупных игроков, включая MSFT,..

Вопросы по теме 'tensorrt'

Альтернатива Tensorflow tf.abs (), которую можно преобразовать в TensorRT
Я пытаюсь преобразовать мою замороженную модель Tensorflow в движок NVIDIA TensorRT. У меня версия TensorRT 3. TensorRT не поддерживает определенные уровни / функции Tensorflow, такие как tf.Cast и т. Д. Моя модель использует функцию tf.abs()...
449 просмотров
schedule 22.07.2023

Конвертация Deeplab в TensorRT
Преобразование модели Deeplab Tensorflow в модель TensorRT значительно увеличивает время вывода, что я делаю не так в своем коде? Здесь я делаю преобразование из графика Tensorflow в график TensorRT и сохраняю эту новую модель TRT: OUTPUT_NAME...
1251 просмотров

ImportError: нет модуля с именем tenorrt
Я установил TensorRT на свою виртуальную машину с помощью установки Debian. Если я запускаю "dpkg -l | grep TensorRT", я получаю ожидаемый результат: ii graphsurgeon-tf 5.0.2-1+cuda10.0...
7495 просмотров
schedule 20.03.2024

Указание политики оптимизации при использовании TensorRT Inference Server
Мне удалось успешно обслуживать модель API обнаружения объектов Tensorflow с помощью TensorRT Inference Server, и файл конфигурации ( config.pbtxt ) выглядит следующим образом: name: "first_model" platform: "tensorflow_savedmodel" max_batch_size:...
95 просмотров
schedule 13.07.2023

Сделать размеры-заполнители, которые ранее были динамическими для существующих моделей, статичными
Я обучил модель тензорного потока для обнаружения объектов с входными данными в качестве заполнителя с размерностью [1, Нет, Нет, 3], поскольку мои тренировочные изображения имеют разные размеры. Затем я преобразовал замороженный график (файл .pb) в...
540 просмотров

Как запустить TensorRT в несколько потоков?
Я новичок в TensorRT и CUDA и пытаюсь реализовать сервер вывода с использованием TensorRT Python API. Я следую примеру end_to_end_tensorflow_mnist и uff_ssd , и все работает нормально. Однако, когда я пытаюсь использовать движок для создания...
2422 просмотров
schedule 29.04.2023

Как использовать только один графический процессор для сеанса tensorflow?
У меня два графических процессора. Моя программа использует TensorRT и Tensorflow. Когда я запускаю только часть TensorRT, все в порядке. Когда я работаю вместе с частью Tensorflow, у меня возникает ошибка [TensorRT] ERROR: engine.cpp (370) -...
2562 просмотров
schedule 26.11.2022

FP16 даже в два раза быстрее, чем использование FP32 в TensorRT
Я использовал TensorRT, и модель Tensorflow преобразована в движки TensorRT в режимах FP16 и FP32. Протестировано с 10 изображениями, и FP32 даже не в два раза быстрее, чем режим FP16. Ожидается минимум в два раза быстрее. Это спецификации Titan...
1451 просмотров
schedule 05.07.2022

Плагин для TensorRT
У меня есть Tensorflow ops ResizeArea, Select, Fill и Equal, используемые в моей модели Tensorflow. При преобразовании модели в uff появлялись предупреждения как Warning: No conversion function registered for layer: ResizeArea yet. Converting...
598 просмотров
schedule 16.01.2023

PluginFormat TensorRT должен быть kNCHW?
Моя модель Tensorflow следующая (часть модели). Модель Tensorflow должна быть в формате NHWC для входного изображения и его обработки. При преобразовании модели Tensorflow в движок TensorRT в upsample необходимо реализовать плагин. Но...
107 просмотров
schedule 26.02.2023

Добавление множественного вывода на TensorRT (ошибка недопустимой обработки ресурса)
Я пытаюсь выполнить два вывода в конвейере с помощью Jetson Nano. Первый вывод - это обнаружение объектов с помощью MobileNet и TensorRT. Мой код для первого вывода в значительной степени скопирован из репозитория AastaNV / TRT_Obj_Detection ....
2058 просмотров

Преобразование сохраненной модели TF 2.0 для TensorRT на Jetson Nano
Я пытаюсь преобразовать сохраненную модель TF 2.0 в tenorRT на Jetson Nano. Модель сохранена в TF 2.0.0. У nano есть Jetpack 4.2.2 с TensorRT __ и Tensorflow 1.14 (это последняя версия Tensorflow для Jetson). Я следую инструкциям от здесь , в...
1078 просмотров

Вывод с помощью файла TensorRT .engine на Python
Я использовал Nvidia's Transfer Learning Toolkit (TLT) для обучения, а затем использовал tlt-converter для преобразования модели .etlt в файл .engine. Я хочу использовать этот файл .engine для вывода в Python. Но поскольку я тренировался с...
1505 просмотров

Используйте модель .h5 с nvidia tensorrt на процессоре вместо графического процессора
У меня есть модель .h5 (для графического процессора?), Которую я хочу запустить на своем процессоре. Я преобразовал модель с помощью python, и похоже, что она действительно преобразована, однако при запуске ее в docker tensorrt я получаю сообщение об...
694 просмотров
schedule 03.11.2023

преобразовать последовательную модель keras в тензорную rt
Как преобразовать последовательную модель keras в tensor-rt? Я работаю над распознаванием лиц, я создал модель, используя последовательную модель keras для кодирования лиц. Теперь я хочу реализовать это на jtson xavier. Это архитектура модели:...
756 просмотров
schedule 18.09.2022

Загрузите и запустите тест модели .trt
Мне нужно запустить мою модель в NVIDIA JETSON T2, поэтому я преобразовал свою рабочую модель yoloV3 в tensorRT (формат .trt) ( https://towardsdatascience.com/have-you-optimized-your-модельглубокогообученияпередразвертыванием-cdc3aa7f413d ) Эта...
1703 просмотров
schedule 21.06.2023

Контекст выполнения TensorRT в рабочем потоке не работает должным образом или вызывает сбои
У меня есть этот класс потока, созданный для запуска вывода с помощью TensorRT: class GPUThread(threading.Thread): def __init__(self, engine_path): threading.Thread.__init__(self) self.engine_path = engine_path self.engine =...
1372 просмотров
schedule 09.03.2024

Получение «Ошибка OutOfMemory в GpuMemory: 0» из небольшого CNN и небольшого набора данных
Моя цель - обучить очень простой CNN на MNIST с помощью Tensorflow, преобразовать его в TensorRT и использовать его для выполнения логического вывода по набору тестов MNIST с помощью TensorRT, все на Jetson Nano, но я получаю несколько ошибок и...
1112 просмотров

Не удалось проанализировать модель ONNX на TensorRT
Я использую джетсон нано Я попытался преобразовать модель onnx https://github.com/onnx/models/tree/master/vision/body_analysis/emotion_ferplus Попал в эту ошибку:...
673 просмотров

Падение точности в Tensorflow-Onnx-Tensorrt
У меня есть обученная модель тензорного потока и протестирована на тензорном потоке с точностью 95%. Модель Tensorflow конвертируется в ONNX и конвертируется в TensorRT. Движок TensorRT работает с 16-битной точностью. В TensorRT точность падает до...
168 просмотров
schedule 30.05.2022