Вопросы по теме 'hivecontext'

Контекст Uisng Hive, создание таблицы Hive локально в локальной системе metastore_db вместо кластера, где разместить мой hive-site.xml
Я создал объект Spark Context и попытался получить текст из текстового файла на сервере hadoop (не на моем локальном сервере), и мне удалось его получить. Когда я пытаюсь получить таблицу улья (которая находится на автономном компьютере, кластере),...
1188 просмотров
schedule 13.05.2023

невозможно просмотреть данные таблиц куста после обновления в искре
Случай: у меня есть таблица HiveTest, которая представляет собой таблицу ORC и транзакцию, установленную как true, загруженную в искровую оболочку и просмотренные данные. var rdd= objHiveContext.sql("select * from HiveTest") rdd.show() ---...
5926 просмотров

искра CDH5.4.2 может использовать HiveContent в оболочке искры, но не может открыть искру-sql
Я использую искру (автономную) CDH5.4.2. После копирования hive-site.xml в $SPARK_HOME/conf я могу запросить из улья в spark-shell , как показано ниже: scala> val hiveContext = новый org.apache.spark.sql.hive.HiveContext(sc);...
294 просмотров
schedule 03.11.2022

Не удалось запустить куст, изменив файл hive-site.xml для подключения к spark-HiveContext.
Ниже мой улей/conf/hive-site.xml: <configuration> <property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:mysql://127.0.0.1/metastore?createDatabaseIfNotExist=true</value>...
768 просмотров
schedule 12.03.2023

Искра 1.6 hive context setConf Проблема
У меня возникли проблемы с запуском sql, который загружает данные в таблицу разделов в контексте куста, я установил dynamic partition = true , но все же у меня проблема. SQL: insert overwrite table target_table PARTITION (column1,column2)...
495 просмотров
schedule 24.12.2023

рассчитать медиану, среднее значение с использованием кадра данных hadoop spark1.6, не удалось запустить базу данных «metastore_db»
spark-shell --packages com.databricks:spark-csv_2.11:1.2.0 1. использование SQLContext ~~~~~~~~~~~~~~~~~~~~~~ 1. импорт org.apache. spark.sql.SQLContext 2. val sqlctx = новый SQLContext(sc) 3. импортировать sqlctx._ val df =...
344 просмотров

Задание Spark, создающее только 1 этапную задачу при выполнении
Я пытаюсь загрузить данные из DB2 в Hive с помощью Spark 2.1.1. и Скала 2.11. Используемый код приведен ниже import org.apache.spark.SparkConf import org.apache.spark.SparkContext import org.apache.spark.sql import...
166 просмотров