Я новичок в Apache Spark. Я пытаюсь настроить Apache Spark на свой Macbook. Я загружаю файл "spark-2.4.0-bin-hadoop2.7" с официального веб-сайта Apache Spark.
Когда я пытаюсь запустить ./bin/spark-shell или ./bin/pyspark, я получаю _1 _.
Я хочу просто запустить Spark на моем локальном компьютере.
Я также пытался предоставить разрешение всем папкам, но это не помогло. Почему я делаю эту ошибку?
Почему я использую Spark-Shell: Permission denied error в Spark Setup?
Ответы (2)
Это должно решить вашу проблему chmod +x /Users/apple/spark-2.4.0-bin-hadoop2.7/bin/*
Затем вы можете попробовать выполнить bin/pyspark
(искровая оболочка в python) или bin/spark-shell
(искровая оболочка в scala).
person
Oli
schedule
02.12.2018
Я пробовал, но все равно принимаю те же ошибки для spark-shell и pyspark = ›chmod + x /Users/apple/spark-2.4.0-bin-hadoop2.7/bin/* -bash: ./bin/spark-shell : / usr / bin / env: плохой интерпретатор: Операция запрещена apple-MacBook-Air: spark-2.4.0-bin-hadoop2.7 apple $ ./bin/pyspark /Users/apple/spark-2.4.0-bin -hadoop2.7 / bin / spark-submit: /Users/apple/spark-2.4.0-bin-hadoop2.7/bin/spark-class: / usr / bin / env: плохой интерпретатор: операция не разрешена / Пользователи / apple / spark-2.4.0-bin-hadoop2.7 / bin / spark-submit: строка 27: /Users/apple/spark-2.4.0-bin-hadoop2.7/bin/spark-class: неопределенная ошибка: 0
- person stef; 02.12.2018
Вы открывали файлы в редакторе? В этом случае взгляните на stackoverflow.com/questions/9952612/
- person Oli; 02.12.2018
Я решаю эту проблему, добавляя папку / libexec, чтобы зажечь домашний путь
установите для $ SPARK_HOME значение
/ usr / local / Cellar / apache-spark / ‹your_spark_version› / libexec
person
stef
schedule
31.01.2021
chmod +x
- person Geno Chen   schedule 02.12.2018