Hadoop INFO ipc.Client: повторная попытка подключения к серверу localhost/127.0.0.1:9000

Я читал другие сообщения о проблеме конфигурации HDFS с Hadoop. Однако ни один из них не помог. Итак, публикую свой вопрос. Я следовал этому руководству по Hadoop v1. .2.1. Когда я запускаю команду hadoop fs -ls, я получаю эту ошибку:

16/08/29 15:20:35 INFO ipc.Client: Retrying connect to server:   localhost/127.0.0.1:9000. Already tried 0 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)

Мой файл core-site.xml:

<configuration>
<property>
  <name>fs.default.name</name>
    <value>hdfs://localhost:9000</value>
</property>

<property>
  <name>hadoop.tmp.dir</name>
    <value>/mnt/miczfs/hadoop/tmp/${user.name}</value>
</property>
</configuration>

Кроме того, мой файл hdfs-site.xml выглядит следующим образом:

<configuration>
<property>
 <name>dfs.replication</name>
 <value>1</value>
    </property>
<property>
   <name>dfs.name.dir</name>
    <value>/mnt/miczfs/hadoop/hdfs/${user.name}/namenode</value>
</property>
 <property>
    <name>dfs.secondary.http.address</name>
    <value>localhost:0</value>
 </property>
<property>
  <name>dfs.data.dir</name>
    <value>/mnt/miczfs/hadoop/hdfs/${user.name}/datanode</value>
</property>
<property>
   <name>dfs.datanode.address</name>
   <value>localhost:0</value>
</property>
<property>
   <name>dfs.datanode.http.address</name>
   <value>localhost:0</value>
</property>
<property>
   <name>dfs.datanode.ipc.address</name>
   <value>localhost:0</value>
</property>
</configuration>

а файл /etc/hosts такой:

127.0.0.1   localhost localhost.localdomain localhost4  localhost4.localdomain4
::1         localhost localhost.localdomain localhost6    localhost6.localdomain6
 172.31.1.1      micrasrelmond.local micrasrelmond #Generated-by-micctrl
 172.31.1.1      mic0.local mic0 #Generated-by-micctrl

Если это возможно, пожалуйста, помогите мне. Спасибо


person Hamid_UMB    schedule 29.08.2016    source источник


Ответы (1)


Сначала проверьте, работает ли namenode с помощью команды jps. если он запущен, отформатируйте узел имени с помощью команды bin/hadoop namenode -format.

Во избежание форматирования namenode после каждого перезапуска измените каталог hdfs по умолчанию на другое место.

person Tarun Chowdary    schedule 30.08.2016