Я разрабатываю приложение в opencl, основной целью которого является реализация алгоритма интеллектуального анализа данных на платформе GPU. Я хочу использовать распределенную файловую систему Hadoop и выполнять приложение на нескольких узлах. Я использую фреймворк MapReduce и разделил свой базовый алгоритм на две части: «Карта» и «Уменьшение».
Я никогда раньше не работал в Hadoop, поэтому у меня есть несколько вопросов:
- Должен ли я писать свое приложение на Java только для использования инфраструктуры Hadoop и Mapeduce?
- Я написал функции ядра для карты и уменьшения в opencl. Можно ли использовать файловую систему HDFS для приложения вычислений на графическом процессоре, отличного от java? (Примечание: я не хочу использовать JavaCL или Aparapi)