PySpark в блокноте Jupyter с использованием пакета spark-csv

Я использую искру 1.6.0 в локальном режиме. Я создал профиль ipython pyspark, поэтому ядро ​​pyspark запустится в блокноте jupyter. Все это работает корректно.

Я хочу использовать этот пакет spark-csv внутри блокнота Jupyter. Я пытался отредактировать файл ~/.ipython/profile_pyspark/startup/00-pyspark-setup.py и поставить --packages com.databricks:spark-csv_2.11:1.4.0 после команды pyspark-shell, но безуспешно. Все еще получаю это сообщение об ошибке:

Py4JJavaError: An error occurred while calling o22.load.
: java.lang.ClassNotFoundException: Failed to find data source: com.databricks.spark.csv. Please find packages at http://spark-packages.org
I have tried also [this solution][2] and many others...none of them worked.

Есть ли у вас какие-либо предложения?


person Matus Cimerman    schedule 18.03.2016    source источник
comment
ответ здесь не решает мою проблему. Вот почему я открыл это.   -  person Matus Cimerman    schedule 18.03.2016