Вопросы по теме 'hivecontext'
Контекст Uisng Hive, создание таблицы Hive локально в локальной системе metastore_db вместо кластера, где разместить мой hive-site.xml
Я создал объект Spark Context и попытался получить текст из текстового файла на сервере hadoop (не на моем локальном сервере), и мне удалось его получить.
Когда я пытаюсь получить таблицу улья (которая находится на автономном компьютере, кластере),...
1188 просмотров
schedule
13.05.2023
невозможно просмотреть данные таблиц куста после обновления в искре
Случай: у меня есть таблица HiveTest, которая представляет собой таблицу ORC и транзакцию, установленную как true, загруженную в искровую оболочку и просмотренные данные.
var rdd= objHiveContext.sql("select * from HiveTest")
rdd.show()
---...
5926 просмотров
schedule
28.03.2023
искра CDH5.4.2 может использовать HiveContent в оболочке искры, но не может открыть искру-sql
Я использую искру (автономную) CDH5.4.2.
После копирования hive-site.xml в $SPARK_HOME/conf я могу запросить из улья в spark-shell , как показано ниже:
scala> val hiveContext = новый org.apache.spark.sql.hive.HiveContext(sc);...
294 просмотров
schedule
03.11.2022
Не удалось запустить куст, изменив файл hive-site.xml для подключения к spark-HiveContext.
Ниже мой улей/conf/hive-site.xml:
<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://127.0.0.1/metastore?createDatabaseIfNotExist=true</value>...
768 просмотров
schedule
12.03.2023
Искра 1.6 hive context setConf Проблема
У меня возникли проблемы с запуском sql, который загружает данные в таблицу разделов в контексте куста, я установил dynamic partition = true , но все же у меня проблема.
SQL:
insert overwrite table target_table PARTITION (column1,column2)...
495 просмотров
schedule
24.12.2023
рассчитать медиану, среднее значение с использованием кадра данных hadoop spark1.6, не удалось запустить базу данных «metastore_db»
spark-shell --packages com.databricks:spark-csv_2.11:1.2.0 1. использование SQLContext ~~~~~~~~~~~~~~~~~~~~~~ 1. импорт org.apache. spark.sql.SQLContext 2. val sqlctx = новый SQLContext(sc) 3. импортировать sqlctx._
val df =...
344 просмотров
schedule
06.01.2023
Задание Spark, создающее только 1 этапную задачу при выполнении
Я пытаюсь загрузить данные из DB2 в Hive с помощью Spark 2.1.1. и Скала 2.11. Используемый код приведен ниже
import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
import org.apache.spark.sql
import...
166 просмотров
schedule
10.03.2023