Эффективное чтение очень большого текстового файла на С++

У меня есть очень большой текстовый файл (45 ГБ). Каждая строка текстового файла содержит два 64-битных целых числа без знака, разделенных пробелами, как показано ниже.

4624996948753406865 10214715013130414417

4305027007407867230 4569406367070518418

10817905656952544704 3697712211731468838 ... ...

Я хочу прочитать файл и выполнить некоторые операции с числами.

Мой код на С++:

void process_data(string str)
{
    vector<string> arr;
    boost::split(arr, str, boost::is_any_of(" \n"));
    do_some_operation(arr);
}

int main()
{
    unsigned long long int read_bytes = 45 * 1024 *1024;
    const char* fname = "input.txt";
    ifstream fin(fname, ios::in);
    char* memblock;

    while(!fin.eof())
    {
        memblock = new char[read_bytes];
        fin.read(memblock, read_bytes);
        string str(memblock);
        process_data(str);
        delete [] memblock;
    }
    return 0;
}

Я относительно новичок в С++. Когда я запускаю этот код, я сталкиваюсь с этими проблемами.

  1. Из-за чтения файла в байтах иногда последняя строка блока соответствует незавершенной строке исходного файла («4624996948753406865 10214» вместо фактической строки «4624996948753406865 10214715013130414417» основного файла).

  2. Этот код работает очень-очень медленно. Выполнение операций с одним блоком в 64-битной системе Intel Core i7 920 с 6 ГБ ОЗУ занимает около 6 секунд. Существуют ли какие-либо методы оптимизации, которые я могу использовать для улучшения времени выполнения?

  3. Нужно ли включать «\n» вместе с пустым символом в функцию разделения усиления?

Я читал о файлах mmap в С++, но я не уверен, что это правильный способ сделать это. Если да, пожалуйста, прикрепите несколько ссылок.


person Pattu    schedule 04.11.2014    source источник
comment
Использование eof не очень хорошо.   -  person molbdnilo    schedule 04.11.2014
comment
Отредактируйте свой вопрос, чтобы показать свою команду компиляции (и версию компилятора и libstdc++)   -  person Basile Starynkevitch    schedule 04.11.2014
comment
не проще ли сохранить данные в двоичном виде вместо десятичного формата текста; Я сделал что-то подобное в LabVIEW и получил улучшение в 10 раз для чтения двоичных файлов вместо анализа текстовых файлов (конечно, это зависит от реализации парсера, но все же ..). В качестве дополнительного преимущества вам не понадобится 20*8=160 bytes для хранения, например. число 4624996948753406865 + пробел, а всего 8 байт   -  person Gunther Struyf    schedule 28.04.2017


Ответы (4)


Я бы переделал это, чтобы работать в потоковом режиме, а не в блоке.

Более простой подход:

std::ifstream ifs("input.txt");
std::vector<uint64_t> parsed(std::istream_iterator<uint64_t>(ifs), {});

Если вы примерно знаете, сколько значений ожидается, использование std::vector::reserve впереди может еще больше ускорить его.


В качестве альтернативы вы можете использовать файл с отображением памяти и перебирать последовательность символов.

Обновление. Я изменил приведенную выше программу, чтобы преобразовать uint32_t в вектор.

При использовании примера входного файла размером 4,5 ГиБ[1] программа выполняется за 9 секунд[2]:

sehe@desktop:/tmp$ make -B && sudo chrt -f 99 /usr/bin/time -f "%E elapsed, %c context switches" ./test smaller.txt
g++ -std=c++0x -Wall -pedantic -g -O2 -march=native test.cpp -o test -lboost_system -lboost_iostreams -ltcmalloc
parse success
trailing unparsed: '
'
data.size():   402653184
0:08.96 elapsed, 6 context switches

Конечно, он выделяет как минимум 402653184 * 4 * байт = 1,5 гибибайта. Таким образом, когда вы читаете файл размером 45 ГБ, вам потребуется примерно 15 ГиБ ОЗУ только для хранения вектора (при условии отсутствия фрагментации при перераспределении): Синтаксический анализ 45 ГиБ завершается за 10 минут 45 с:

make && sudo chrt -f 99 /usr/bin/time -f "%E elapsed, %c context switches" ./test 45gib_uint32s.txt 
make: Nothing to be done for `all'.
tcmalloc: large alloc 17570324480 bytes == 0x2cb6000 @  0x7ffe6b81dd9c 0x7ffe6b83dae9 0x401320 0x7ffe6af4cec5 0x40176f (nil)
Parse success
Trailing unparsed: 1 characters
Data.size():   4026531840
Time taken by parsing: 644.64s
10:45.96 elapsed, 42 context switches

Для сравнения, только выполнение wc -l 45gib_uint32s.txt заняло около 12 минут (правда, без планирования приоритетов в реальном времени). wc невероятно быстр

Полный код, используемый для эталонного теста

#include <boost/spirit/include/qi.hpp>
#include <boost/iostreams/device/mapped_file.hpp>
#include <chrono>

namespace qi = boost::spirit::qi;

typedef std::vector<uint32_t> data_t;

using hrclock = std::chrono::high_resolution_clock;

int main(int argc, char** argv) {
    if (argc<2) return 255;
    data_t data;
    data.reserve(4392580288);   // for the  45 GiB file benchmark
    // data.reserve(402653284); // for the 4.5 GiB file benchmark

    boost::iostreams::mapped_file mmap(argv[1], boost::iostreams::mapped_file::readonly);
    auto f = mmap.const_data();
    auto l = f + mmap.size();

    using namespace qi;

    auto start_parse = hrclock::now();
    bool ok = phrase_parse(f,l,int_parser<uint32_t, 10>() % eol, blank, data);
    auto stop_time = hrclock::now();

    if (ok)   
        std::cout << "Parse success\n";
    else 
        std::cerr << "Parse failed at #" << std::distance(mmap.const_data(), f) << " around '" << std::string(f,f+50) << "'\n";

    if (f!=l) 
        std::cerr << "Trailing unparsed: " << std::distance(f,l) << " characters\n";

    std::cout << "Data.size():   " << data.size() << "\n";
    std::cout << "Time taken by parsing: " << std::chrono::duration_cast<std::chrono::milliseconds>(stop_time-start_parse).count() / 1000.0 << "s\n";
}

[1] создано с помощью od -t u4 /dev/urandom -A none -v -w4 | pv | dd bs=1M count=$((9*1024/2)) iflag=fullblock > smaller.txt

[2] очевидно, это было с файлом, кэшированным в буферном кеше на Linux - большой файл не имеет этого преимущества

person sehe    schedule 04.11.2014
comment
Я попробовал подход istream. Моя система имеет 5 ГБ ОЗУ и 64-битную архитектуру. Для файла размером 4,5 ГБ код istream занял всего 1 минуту 10 секунд. Но когда я попробовал файл размером 45 ГБ, он завершился со следующей ошибкой: завершение вызывается после создания экземпляра 'std::bad_alloc' what(): std::bad_alloc. Прервано. Думаю, мне придется попробовать метод mmap и посмотреть. - person Pattu; 05.11.2014
comment
@Pattu Во что бы то ни стало, но bad_alloc указывает, что либо у вас просто нет памяти для вектора, или выделение не выполняется из-за фрагментации. Попробуйте вызвать reserve() с последней емкостью (или немного больше), чтобы избежать перераспределения. - person sehe; 05.11.2014
comment
@Pattu Убедитесь, что у вас достаточно памяти. Я проанализировал 4,5 ГиБ за 9 секунд, а 45 ГиБ менее чем за 11 минут (см. Обновленный ответ с кодом). (Обратите внимание, что 9 с, конечно, связаны с чтением кэшированного диска. Учитывайте эти реальные тайминги, а не столько тесты синтаксического анализа) - person sehe; 05.11.2014
comment
Один отличный ответ. wc -l 45gib_uint32s.txt заняло ~12 минут верно? - person Maxim Egorushkin; 10.11.2016
comment
@MaximEgorushkin Позвольте мне воспроизвести это. Генерация больших данных займет ~ 30 минут. - person sehe; 10.11.2016
comment
К сожалению, мой диск превысил 30 ГБ. Итак, время для 30 ГБ: 1 мин 12 с. Однако это в системе с 32 ГБ ОЗУ. Эффект кеша не проверял. - person sehe; 10.11.2016

Я могу только предположить, что узкое место находится в:

string str(memblock);

-Потому что вы выделяете в памяти сегмент длиной 45 МБ.

Вы должны читать файл построчно, как описано здесь:

Чтобы профилировать вашу программу, вы можете печатать clock() между каждой строкой, как описано в:

person Oren Kishon    schedule 04.11.2014
comment
Перераспределение 45-мегабайтного буфера каждый раз в цикле также не помогает. Выделите его один раз, удалите один раз вне цикла. - person Paul Roub; 04.11.2014

Вы можете сопоставить файл памяти с памятью, но это будет зависеть от платформы (в Unix это будет mmap в Windows CreateFileMapping/MapViewIntoFile); тем не менее, если в 32-битной системе у вас могут возникнуть проблемы, если не останется достаточно большого блока виртуальной памяти (в 64-битных системах такой проблемы не будет).

Отображение памяти должно быть быстрее, чем чтение данных поблочно с диска.

person MichaelMoser    schedule 04.11.2014
comment
Вопрос помечен как Linux. - person Basile Starynkevitch; 04.11.2014

В Linux использование C <stdio.h> вместо потоков C++ может повысить производительность (поскольку потоки C++ строятся выше FILE-s). Вы можете использовать readline(3) или fgets(3) или fscanf(3). Вы можете установить буфер большего размера (например, 64 Кбайт или 256 Кбайт), используя setbuffer(3) и т. д. Но я предполагаю, что ваша (улучшенная) программа будет связана с вводом-выводом, а не с процессором. Затем вы можете поиграть с posix_fadvise(2).

Вы можете использовать сопоставление памяти mmap(2) & madvise(2) (см. также режим m для fopen(3)). См. также readahead(2)

Наконец, если ваш алгоритм это позволяет, вы можете csplit файлы разбивать на более мелкие части и обрабатывать каждый из них в параллельных процессах.

person Basile Starynkevitch    schedule 04.11.2014