чтение небольшого файла CSV в java приводит к ошибке нехватки памяти

У меня есть следующие две реализации чтения CSV-файлов, рассматриваемые CSV-файлы не такие большие (5 мегабайт).

Первая реализация использует openCSV, вторая использует stringTokenizer.

Первый привел к ошибке нехватки памяти, даже когда я увеличил максимальную память кучи java до 1G (Xmx), хотя реализация StringTokenizer ненадежна, но у меня нет выбора, так как мне нужно прочитать файл csv в память.

Я не понимаю, почему версия openCSV потребляет так много памяти, учитывая небольшой размер файла csv (в нем 200 тыс. строк, но размер файла всего около 5 млн). что делает программа чтения openCSV, которая требует так много памяти? Версия StringTokenizer быстро справляется с этим.

вот ошибка, выданная реализацией openCSV:

Exception in thread "main" java.lang.OutOfMemoryError: GC overhead limit exceeded
    at java.util.Arrays.copyOfRange(Arrays.java:3209)
    at java.lang.String.<init>(String.java:215)
    at java.lang.StringBuilder.toString(StringBuilder.java:430)
    at au.com.bytecode.opencsv.CSVParser.parseLine(Unknown Source)
    at au.com.bytecode.opencsv.CSVParser.parseLineMulti(Unknown Source)
    at au.com.bytecode.opencsv.CSVReader.readNext(Unknown Source)

private List<String[]> parseCSV(File f) {
    List<String[]>res=new Vector<String[]>();
    CSVReader reader=null;
    try{
        reader = new CSVReader(new BufferedReader(new FileReader(f)));
        String [] nextLine;
        while ((nextLine = reader.readNext()) != null) {
            for(int i=0;i<nextLine.length;i++)if(nextLine[i]!=null)nextLine[i]=nextLine[i].trim();
            res.add(nextLine);
        }

    }catch(IOException exp){
        exp.printStackTrace();
    }finally{
        if(reader!=null)try {
            reader.close();
        } catch (IOException ex) {
            Logger.getLogger(DataStream2.class.getName()).log(Level.SEVERE, null, ex);
        }
    }
    return res;

}

 private List<String[]> parseCSV(File f) {
    List<String[]>res=new Vector<String[]>();
    BufferedReader br=null;
    try{
        br = new BufferedReader(new FileReader(f));
        String line =null;
        while((line=br.readLine())!=null){
            StringTokenizer st=new StringTokenizer(",");
            String[]cur=new String[st.countTokens()];
            for(int i=0;i<cur.length;i++){
                cur[i]=st.nextToken().trim();
            }
            res.add(cur);
        }
    }catch(IOException exp){
        exp.printStackTrace();
     }
    finally{
        if(br!=null)try {
            br.close();
        } catch (IOException ex) {
            Logger.getLogger(DataStream2.class.getName()).log(Level.SEVERE, null, ex);
        }
    }
    return res;
}

person user678070    schedule 09.05.2011    source источник


Ответы (3)


Возможно, маловероятно, но я предполагаю, что ваши входные данные могут вызывать ошибку в библиотеке opencsv, возможно, заставляя ее зацикливаться.

Загрузка для opencsv предоставляет исходный код и библиотеки, поэтому вы сможете самостоятельно отлаживать код.

Поскольку трассировка стека не показывает номера строк для кода opencsv, я предполагаю, что вам нужно будет изменить цель javac в сценарии сборки, чтобы включить «debug = true», чтобы включить отладочную компиляцию кода.

person sudocode    schedule 09.05.2011

оказывается, что в версии StringTokenizer есть ошибка, поэтому обеим версиям не хватает памяти.

person user678070    schedule 11.05.2011

Apache Solr использует commons-csv, поэтому я рекомендую попробовать. Solr, использующий это, является большим одобрением.

person Persimmonium    schedule 11.05.2011