Я создал объект Spark Context и попытался получить текст из текстового файла на сервере hadoop (не на моем локальном сервере), и мне удалось его получить.
Когда я пытаюсь получить таблицу улья (которая находится на автономном компьютере, кластере), я не смог этого сделать, и когда я создал таблицу улья, она создается локально в metastore_db.
objHiveContext.sql ("создать таблицу yahoo_orc_table (дата STRING, open_price FLOAT, high_price FLOAT, low_price FLOAT, close_price FLOAT, volume INT, adj_price FLOAT) хранится как orc")
Я пробовал настроить хранилище метаданных
objHiveContext.setConf ("hive.metastore.warehouse.dir", "hdfs: // IP-адрес сервера: HiveportNum / apps / hive / inventory")
&& также objHiveContext.hql ("SET hive.metastore.warehouse.dir = hdfs: // serverIp: portNumber / apps / hive / inventory")
Я даже поместил xml сайта-улья в папку conf машины искры,
Как заставить мое приложение scala связываться с hive-site.xml и получать информацию о хранилище метаданных из этого xml и где мне разместить свой Hive-site.xml
Я поместил его в свое приложение, поскольку везде, где предлагается добавить в ClassPath, я добавил и вижу, что это чуть выше файла mypom.xml, но все же мое приложение scala находится в локальном режиме
Таблицы (yahoo_orc_table) создаются локально в D: \ user \ hive \ inventory