Контекст искры:
Начиная со Spark 1.x, Spark SparkContext является точкой входа в Spark и определяется в org. апач. spark и используется для программного создания Spark RDD, аккумуляторов и широковещательных переменных в кластере. Его объект sc является переменной по умолчанию, доступной в spark-shell, и его можно создать программно с помощью класса SparkContext.
SparkContext — это клиент среды исполнения spark. SparkContext — это точка входа для задания выполнения искры. SparkContext действует как мастер приложения spark.
Надеюсь, этот сайт с примерами Apache SparkContext будет вам полезен.
SparkSession:
Начиная со Spark 2.0, SparkSession стал точкой входа в Spark для работы с RDD, DataFrame и набором данных. До версии 2.0 SparkContext был точкой входа. Здесь я в основном сосредоточусь на объяснении того, что такое SparkSession, определяя и описывая, как создать сеанс Spark и используя переменную «spark» сеанса Spark по умолчанию из spark-shell.
В Apache spark2.0 и более поздних версиях сеанс spark — это новая точка входа для приложений spark. Все функции, предоставляемые контекстом искры, доступны в сеансе Spark. сеанс spark Предоставляет API для работы с наборами данных и фреймами данных. До Spark2.0:
Spark Context был точкой входа для искровых заданий. В то время RDD был одним из основных API, и он создавался и управлялся с помощью контекста spark. Для всех остальных API требовались разные контексты. Для SQL требовался контекст SQL.
Дополнительные примеры в реальном времени можно найти на странице Apache SparkSession.
SQLContext: в Spark версии 1.0 SQLContext (org.apache.spark.sql.SQLContext) является точкой входа в SQL для работы со структурированными данными (строками и столбцами), однако в версии 2.0 SQLContext был заменен. со SparkSession. Apache Spark SQLContext — это точка входа в SparkSQL, который представляет собой модуль Spark для структурированных данных (строки и столбцы) в Spark 1.x. обработка. Spark SQLContext инициализирован. Контекст SQL apache-spark — это точка входа Spark SQL, которую можно получить из контекста spark JavaSparkContext:.
JavaSparkContext Для JAVARDD делается то же самое, что и выше, но в реализации Java.
JavaSparkContext Удобная для Java версия [[org.apache.spark.SparkContext]], которая возвращает [[org.apache.spark.api.java.JavaRDD]] и работает с коллекциями Java вместо коллекций Scala.
person
Kumar Spark
schedule
25.02.2021