Процессы, работающие на всех узлах, кроме узлов данных, не подключенных к namenode.

У меня есть кластер из 4 узлов, 1 главный и 3 подчиненных устройства на CentOs и HADOOP 2.5.0.

Все конфиги и ssh тоже хороши :).

Но когда я запускаю start-dfs.sh в мастере namenod, а в подчиненных datanode задания выполняются, но в web GUI или hadoop dfsadmin -report ни один узел не работает :( .

Мой файл hosts:

127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
192.168.1.201 master1  master1.foo.com
192.168.1.200 slave3 slave3.foo.com
192.168.1.203 slave1 slave1.foo.com
192.168.1.204 slave2 slave2.foo.com 
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6

Во всех хостах.


person Mark    schedule 27.09.2014    source источник
comment
Можете ли вы проверить журналы datanode, если есть какие-либо ошибки   -  person neeraj    schedule 28.09.2014


Ответы (1)


попасть в

/home/hduser/hadoop/sbin/

затем введите start-all.sh

после этого введите jps

на этот раз вы видите, что ваш узел данных работает?

person qianda66    schedule 18.06.2015
comment
Не могли бы вы уточнить свой ответ, добавив немного больше описания решения, которое вы предоставляете? - person abarisone; 18.06.2015
comment
есть два способа решить проблему, из-за которой узел данных не может работать. excutestart-all.sh, чтобы узнать, может ли он работать. 2.‹1›first,excutestop-all.sh ‹2›excutechown -R ../hadoop/hdfs/datanode.‹3›excutestart-all.sh, чтобы узнать, может ли он работать . - person qianda66; 20.06.2015