Namenode HA (UnknownHostException: nameservice1)

Мы включаем высокую доступность Namenode через Cloudera Manager, используя

Cloudera Manager >> HDFS >> Действие > Включить высокую доступность >> Выбранные резервные узлы Namenode и Journal Затем nameservice1

После завершения всего процесса развернутая конфигурация клиента.

Протестировано с клиентской машины путем перечисления каталогов HDFS (hadoop fs -ls /), затем ручного переключения на резервный namenode и повторного перечисления каталогов HDFS (hadoop fs -ls /). Этот тест работал отлично.

Но когда я запустил задание сна hadoop, используя следующую команду, это не удалось

$ hadoop jar /opt/cloudera/parcels/CDH-4.6.0-1.cdh4.6.0.p0.26/lib/hadoop-0.20-mapreduce/hadoop-examples.jar sleep -m 1 -r 0
java.lang.IllegalArgumentException: java.net.UnknownHostException: nameservice1
at org.apache.hadoop.security.SecurityUtil.buildTokenService(SecurityUtil.java:414)
at org.apache.hadoop.hdfs.NameNodeProxies.createNonHAProxy(NameNodeProxies.java:164)
at org.apache.hadoop.hdfs.NameNodeProxies.createProxy(NameNodeProxies.java:129)
at org.apache.hadoop.hdfs.DFSClient.<init>(DFSClient.java:448)
at org.apache.hadoop.hdfs.DFSClient.<init>(DFSClient.java:410)
at org.apache.hadoop.hdfs.DistributedFileSystem.initialize(DistributedFileSystem.java:128)
at org.apache.hadoop.fs.FileSystem.createFileSystem(FileSystem.java:2308)
at org.apache.hadoop.fs.FileSystem.access$200(FileSystem.java:87)
at org.apache.hadoop.fs.FileSystem$Cache.getInternal(FileSystem.java:2342)
at org.apache.hadoop.fs.FileSystem$Cache.get(FileSystem.java:2324)
at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:351)
at org.apache.hadoop.fs.Path.getFileSystem(Path.java:194)
at org.apache.hadoop.mapreduce.JobSubmissionFiles.getStagingDir(JobSubmissionFiles.java:103)
at org.apache.hadoop.mapred.JobClient$2.run(JobClient.java:980)
at org.apache.hadoop.mapred.JobClient$2.run(JobClient.java:974)
at java.security.AccessController.doPrivileged(Native Method)
at javax.security.auth.Subject.doAs(Subject.java:416)
at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1438)
at org.apache.hadoop.mapred.JobClient.submitJobInternal(JobClient.java:974)
at org.apache.hadoop.mapred.JobClient.submitJob(JobClient.java:948)
at org.apache.hadoop.mapred.JobClient.runJob(JobClient.java:1410)
at org.apache.hadoop.examples.SleepJob.run(SleepJob.java:174)
at org.apache.hadoop.examples.SleepJob.run(SleepJob.java:237)
at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:70)
at org.apache.hadoop.examples.SleepJob.main(SleepJob.java:165)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:622)
at org.apache.hadoop.util.ProgramDriver$ProgramDescription.invoke(ProgramDriver.java:72)
at org.apache.hadoop.util.ProgramDriver.driver(ProgramDriver.java:144)
at org.apache.hadoop.examples.ExampleDriver.main(ExampleDriver.java:64)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:622)
at org.apache.hadoop.util.RunJar.main(RunJar.java:208)
Caused by: java.net.UnknownHostException: nameservice1
... 37 more

Я не знаю, почему он не может разрешить nameservice1 даже после развертывания конфигурации клиента.

Когда я гуглил эту проблему, я нашел только одно решение этой проблемы

Добавьте приведенную ниже запись в запись конфигурации для устранения проблемы .internal:8020 dfs.namenode.rpc-address.nameservice1.namenode2=ip-10-12-122-210.ec2.internal:8020 dfs.client.failover.proxy.provider.nameservice1=org.apache.hadoop.hdfs .server.namenode.ha.ConfiguredFailoverProxyProvider

У меня сложилось впечатление, что Cloudera Manager позаботится об этом. Я проверил клиент для этой конфигурации, и конфигурация была там (/var/run/cloudera-scm-agent/process/1998-deploy-client-config/hadoop-conf/hdfs-site.xml).

Также некоторые подробности о конфигурационных файлах:

[11:22:37 [email protected]:~]# ls -l /etc/hadoop/conf.cloudera.*
/etc/hadoop/conf.cloudera.hdfs:
total 16
-rw-r--r-- 1 root root  943 Jul 31 09:33 core-site.xml
-rw-r--r-- 1 root root 2546 Jul 31 09:33 hadoop-env.sh
-rw-r--r-- 1 root root 1577 Jul 31 09:33 hdfs-site.xml
-rw-r--r-- 1 root root  314 Jul 31 09:33 log4j.properties

/etc/hadoop/conf.cloudera.hdfs1:
total 20
-rwxr-xr-x 1 root root  233 Sep  5  2013 container-executor.cfg
-rw-r--r-- 1 root root 1890 May 21 15:48 core-site.xml
-rw-r--r-- 1 root root 2546 May 21 15:48 hadoop-env.sh
-rw-r--r-- 1 root root 1577 May 21 15:48 hdfs-site.xml
-rw-r--r-- 1 root root  314 May 21 15:48 log4j.properties

/etc/hadoop/conf.cloudera.mapreduce:
total 20
-rw-r--r-- 1 root root 1032 Jul 31 09:33 core-site.xml
-rw-r--r-- 1 root root 2775 Jul 31 09:33 hadoop-env.sh
-rw-r--r-- 1 root root 1450 Jul 31 09:33 hdfs-site.xml
-rw-r--r-- 1 root root  314 Jul 31 09:33 log4j.properties
-rw-r--r-- 1 root root 2446 Jul 31 09:33 mapred-site.xml

 /etc/hadoop/conf.cloudera.mapreduce1:
total 24
-rwxr-xr-x 1 root root  233 Sep  5  2013 container-executor.cfg
-rw-r--r-- 1 root root 1979 May 16 12:20 core-site.xml
-rw-r--r-- 1 root root 2775 May 16 12:20 hadoop-env.sh
-rw-r--r-- 1 root root 1450 May 16 12:20 hdfs-site.xml
-rw-r--r-- 1 root root  314 May 16 12:20 log4j.properties
-rw-r--r-- 1 root root 2446 May 16 12:20 mapred-site.xml
[11:23:12 [email protected]:~]# 

Я сомневаюсь, что это проблема со старой конфигурацией в /etc/hadoop/conf.cloudera.hdfs1 и /etc/hadoop/conf.cloudera.mapreduce1, но не уверен.

похоже, что /etc/hadoop/conf/* никогда не обновлялся

# ls -l /etc/hadoop/conf/
total 24
-rwxr-xr-x 1 root root  233 Sep  5  2013 container-executor.cfg
-rw-r--r-- 1 root root 1979 May 16 12:20 core-site.xml
-rw-r--r-- 1 root root 2775 May 16 12:20 hadoop-env.sh
-rw-r--r-- 1 root root 1450 May 16 12:20 hdfs-site.xml
-rw-r--r-- 1 root root  314 May 16 12:20 log4j.properties
-rw-r--r-- 1 root root 2446 May 16 12:20 mapred-site.xml

У кого-нибудь есть идеи по этому вопросу?


person roy    schedule 31.07.2014    source источник
comment
Не знаю, почему это символическая ссылка на неправильную конфигурацию pastebin.com/mv1ehRCm. Можем ли мы изменить символическую ссылку на правильную конфигурацию вручную?   -  person roy    schedule 31.07.2014


Ответы (4)


Похоже, вы используете неправильную конфигурацию клиента в каталоге /etc/hadoop/conf. Иногда опция развертывания клиентских конфигураций Cloudera Manager (CM) может не работать.

Поскольку вы включили NN HA, у вас должны быть действительные файлы core-site.xml и hdfs-site.xml в каталоге конфигурации клиента Hadoop. Чтобы получить действительные файлы сайта, перейдите к службе HDFS из CM. Выберите параметр Загрузить конфигурацию клиента с помощью кнопки Действия. вы получите файлы конфигурации в формате zip, распакуйте zip-файлы и замените файлы /etc/hadoop/conf/core-site.xml и /etc/hadoop/conf/hdfs-site.xml извлеченным core-site.xml, файлы hdfs-site.xml.

person SachinJ    schedule 01.08.2014
comment
затем используйте второй вариант (загрузить конфигурацию клиента и заменить файлы сайта), как указано в ответе. - person SachinJ; 03.08.2014
comment
Я исправил это, удалив альтернативную ссылку - person roy; 03.08.2014
comment
У меня такой проблемы нет, но все равно не работает в presto - person Anup Ash; 05.08.2016

Решил. неправильная конфигурация была связана с "/etc/hadoop/conf/" --> "/etc/alternatives/hadoop-conf/" --> "/etc/hadoop/conf.cloudera.mapreduce1"

Это должно быть "/etc/hadoop/conf/" --> "/etc/alternatives/hadoop-conf/" --> "/etc/hadoop/conf.cloudera.mapreduce"

person roy    schedule 01.08.2014

ниже заявление в моем коде разрешило проблему, указав хост и порт

val dfs = sqlContext.read.json("hdfs://localhost:9000//user/arvindd/input/employee.json")
person Arvind-MSFT    schedule 22.08.2016

Я решил эту проблему, поставив полную строку для создания RDD.

myfirstrdd = sc.textFile("hdfs://192.168.35.132:8020/BUPA.txt")

а затем я смог выполнить другое преобразование RDD. Убедитесь, что у вас есть w/r/x для файла, или вы можете сделать chmod 777

person Amit Bhat    schedule 23.02.2016