start-all.sh и start-dfs.sh с главного узла не запускают службы подчиненного узла?

Я обновил файл /conf/slaves на главном узле Hadoop, указав имена хостов моих подчиненных узлов, но не могу запустить подчиненные устройства с главного узла. Я должен запускать ведомые устройства по отдельности, после чего мой кластер из 5 узлов запускается и работает. Как запустить весь кластер одной командой с главного узла?

Кроме того, SecondaryNameNode работает на всех ведомых устройствах. Это проблема? Если да, то как их удалить из рабов? Я думаю, что в кластере с одним NameNode должен быть только один SecondaryNameNode, я прав?

Спасибо!


person ingmid    schedule 21.02.2018    source источник


Ответы (1)


В Apache Hadoop 3.0 используйте файл $HADOOP_HOME/etc/hadoop/workers для добавления подчиненных узлов по одному на строку.

person unwelcomed_user    schedule 14.03.2018
comment
Я добавил ip-адрес резервного сервера в $HADOOP_HOME/etc/hadoop/workers на главном сервере, когда я запускаю all.sh на главном сервере, он запускает SecondaryNameNode, ResourceManager, NameNode. Но на подчиненном сервере он запускает только NodeManager без DataNode. - person Venus; 02.07.2021