webhdfs создает исключение файла

Я использую Hadoop 2.7.1 на Centos 7.

Если я хочу использовать webhdfs с кластером Hadoop

Я должен настроить это свойство

<property>
      <name>dfs.webhdfs.enabled</name>
      <value>true</value>
</property>

но что еще?

мое имя узла ip 192.168.4.128

когда я использую Firefox в Windows 8 и отправляю этот запрос на получение

http://192.168.4.128:50070/webhdfs/v1/hadoopDir/A.txt/?user.name=SYSTEM&op=OPEN

Я могу открыть файл и посмотреть его содержимое

но когда я отправляю PUT запрос

http://192.168.4.128:50070/webhdfs/v1/HadoopDir/B.txt/?user.name=SYSTEM&op=CREATE&data=true

получаю следующий ответ

{"RemoteException":{"exception":"IllegalArgumentException","javaClassName":"java.lang.IllegalArgumentException","message":"Invalid value for webhdfs parameter \"op\": No enum constant org.apache.hadoop.hdfs.web.resources.GetOpParam.Op.CREATE"}}

почему в GET операции открытия файла все ок, а в PUT нет.

Какие-либо другие конфигурации должны быть обработаны для обработки этого запроса?


person oula alshiekh    schedule 06.04.2017    source источник
comment
Как отправить запрос PUT? Браузеры не отправляют запросы PUT из адресной строки   -  person OneCricketeer    schedule 06.04.2017
comment
community.cloudera.com/t5/Hadoop-101-Training-Quickstart/   -  person OneCricketeer    schedule 06.04.2017
comment
большое спасибо за ваш ответ   -  person oula alshiekh    schedule 06.04.2017


Ответы (1)


WebHDFS выполняет четыре типа операций HTTP (GET, POST, PUT, DELETE), тогда как веб-браузеры обычно поддерживают только GET и POST.

Включите некоторые плагины, такие как RESTClient (для Firefox), Расширенный клиент REST (для Chrome) для отправки запросов HTTP PUT и HTTP DELETE .

Кроме того, вы можете использовать curl из командной строки.

Примечание. WebHDFS включен по умолчанию. Итак, свойство, добавленное в hdfs-site.xml, избыточно (просто говорю).

person franklinsijo    schedule 06.04.2017