Вопросы по теме 'numpy-memmap'

Почему я получаю OverflowError и WindowsError с numpy memmap и как это решить?
В отношении моего другого вопроса -a-numpy-array?noredirect=1#comment56918583_34581021" title="MemoryError">здесь этот код работает, если я использую небольшой фрагмент моего набора данных с dtype='int32' , а использование float64 приводит к...
759 просмотров
schedule 06.11.2022

Среднее значение numpy больше максимального для memmap
У меня есть массив временных меток, увеличивающийся для каждой строки во 2-м столбце матрицы X. Я вычисляю среднее значение временных меток, и оно больше максимального значения. Я использую numpy memmap для хранения. Почему это происходит?...
246 просмотров
schedule 07.01.2023

Проблемы с производительностью памяти NumPy
У меня есть большой (75000 x 5 x 6000) трехмерный массив, хранящийся в виде карты памяти NumPy. Если я просто перебираю первое измерение следующим образом: import numpy as np import time a = np.memmap(r"S:\bin\Preprocessed\mtb.dat",...
2666 просмотров
schedule 25.07.2023

Действительно ли xarray или dask поддерживают отображение памяти?
В своих экспериментах я пробовал: xr.open_dataset с chunks аргументом, и он загружает данные в память. Настройте NetCDF4DataStore и вызовите ds['field'].values , и он загрузит данные в память. Установите ScipyDataStore с mmap='r' ,...
1513 просмотров
schedule 16.06.2022

numpy memmap изменить файлы
У меня проблема с пониманием того, как работает numpy.memmap . Предыстория заключается в том, что мне нужно уменьшить большой массив numpy , сохраненный на диске, путем удаления записей. Чтение массива и построение нового путем копирования нужных...
604 просмотров
schedule 03.06.2023

Каков максимальный размер файла в 64-битной системе с использованием отображения памяти numpy
Я пытаюсь работать с большим файлом ~ примерно 50 ГБ. Я пытаюсь получить доступ к итерации через файл, используя сопоставление памяти numpy. Я вижу, что существует ограничение на размер файла, используемого для сопоставления памяти, которое...
1477 просмотров

Numpy загружает массив с отображением памяти (mmap_mode) из облачного хранилища Google
Я хочу загрузить .npy из хранилища Google (gs: //project/file.npy) в свое задание google ml в качестве обучающих данных. Поскольку размер файла составляет +10 ГБ, я хочу использовать параметр mmap_mode в numpy.load (), чтобы не исчерпать память....
950 просмотров

Как читать большой текстовый файл, избегая построчного чтения :: Python
У меня есть большой файл данных (N, 4), который я отображаю построчно. Мои файлы имеют размер 10 ГБ, упрощенная реализация приведена ниже. Хотя следующие работы, это занимает огромное количество времени. Я хотел бы реализовать эту логику так,...
178 просмотров
schedule 25.02.2023

Как отсортировать файл HDF5 в Python
Я храню большой текстовый файл (10 ГБ, N строк и 4 столбца) в файле HDF5, используя пакет h5py. В первую очередь потому, что я не хочу использовать свою оперативную память. Я хотел бы отсортировать элементы в файле на основе второго столбца. Любые...
101 просмотров
schedule 12.05.2022

Накладные расходы на загрузку больших массивов numpy
Мой вопрос прост; и я не мог найти ресурс, который отвечает на него. Несколько похожие ссылки с использованием asarray , о числах в целом и самый краткий один здесь . Как я могу рассчитать накладные расходы на загрузку массива numpy в ОЗУ...
65 просмотров
schedule 31.05.2024