Мне нужно запустить некоторые регрессионные модели и описания для большого набора данных. У меня есть папка с примерно 500 файлами (обновление: файлы txt), которые я хотел бы объединить, и их общий размер составляет 250 ГБ.
Я знаю, как объединить все файлы из папки, но, хотя я запускаю его на сервере 128RAM, мне постоянно не хватает памяти.
Я ищу любые советы/рекомендации о том, как загружать/объединять эти файлы управляемым способом (если возможно) с помощью R. Я искал такие пакеты, как «ff» и «bigmemory», предложат ли они мне решение?