Записной книжке Azure Databricks не удается найти dbutils, когда он находится в пакете

Я создаю класс для связи с большими двоичными объектами хранилища Azure, и он работает нормально, но если я попытаюсь поместить этот класс в пакет, он выдает ошибку «ошибка: не найдено: значение dbutils». Будет нормально, если я удалю пакет Libraries.Custom выше моего класса.

Я создаю класс в записной книжке лазурного набора данных с помощью Scala. Может ли кто-нибудь мне помочь. Код приведен ниже:

Код класса

package Libraries.Custom

import org.apache.spark.sql._

class BlobContext {
  // Basic Azure Storage Configurations
  val blob_account_name = "REPLACE_BY_ACTUAL_VALUE"
  val blob_account_access_key = "REPLACE_BY_ACTUAL_VALUE"
  val blob_container_name = "REPLACE_BY_ACTUAL_VALUE"
  val blob_server = s"REPLACE_BY_ACTUAL_VALUE"
  val blob_wasbs = s"REPLACE_BY_ACTUAL_VALUE"

  val spark = SparkSession
    .builder()
    .appName("Path SOM")
    .master("local[*]")
    .config("spark.ui.enabled", "false")
    .getOrCreate()

  def SetConfigurations {
    spark.conf.set(blob_server, blob_account_access_key)
  }

  def ReadData(fileName: String, fileType: String): DataFrame = {
    SetConfigurations
    val dataFrame = spark.read.format(fileType).option("header", "true").load(s"${blob_wasbs}${fileName}.${fileType}")    
    return dataFrame
  }

  def WriteData(fileDataFrame: DataFrame, fileName: String, fileType: String) {
    val absTempFilePath = s"${blob_wasbs}SPARK_NEW_${fileName}.temp"
    val absFilePath = s"${blob_wasbs}SPARK_NEW_${fileName}.${fileType}"

    fileDataFrame.repartition(1).write.format(fileType).mode("overwrite").option("header", "true").option("inferSchema", "true").option("delimiter", ",").csv(absTempFilePath)

    val partition_path = dbutils.fs.ls(absTempFilePath + "/").filter(file=>file.name.endsWith(".csv"))(0).path
    dbutils.fs.cp(partition_path, absFilePath)
    dbutils.fs.rm(absTempFilePath,recurse=true)
  }      
}

Ошибка

<notebook>:37: error: not found: value dbutils
    val partition_path = dbutils.fs.ls(absTempFilePath + "/").filter(file=>file.name.endsWith(".csv"))(0).path
                         ^
<notebook>:38: error: not found: value dbutils
    dbutils.fs.cp(partition_path, absFilePath)
    ^
<notebook>:39: error: not found: value dbutils
    dbutils.fs.rm(absTempFilePath,recurse=true)
    ^
<notebook>:39: error: not found: value recurse
    dbutils.fs.rm(absTempFilePath,recurse=true)
                                  ^
Compilation failed.

person Omair Zia    schedule 27.12.2018    source источник


Ответы (1)


Попробуйте добавить этот импорт:

import com.databricks.dbutils_v1.DBUtilsHolder.dbutils
person Vesper    schedule 27.06.2019
comment
Это сработало, но есть ли это точное решение? - person Manish Jain; 26.06.2021