Я настраиваю искру с помощью Hadoop 2.3.0 на Mesos 0.21.0. когда я пробую искру на ведущем, я получаю эти сообщения об ошибках для stderr ведомого mesos:
ВНИМАНИЕ: ведение журнала до того, как InitGoogleLogging() будет записано в STDERR.
I1229 12:34:45.923665 8571 fetcher.cpp:76] Получение URI «hdfs://10.170.207.41/spark/spark-1.2.0.tar.gz»
I1229 12:34:45.925240 8571 fetcher.cpp:105] Загрузка ресурса из «hdfs://10.170.207.41/spark/spark-1.2.0.tar.gz» в «/tmp/mesos/slaves/20141226-161203- 701475338-5050-6942-S0 / frameworks / 20141229-111020-5050-975338-5050-975338-5050-985-0001 / Executors / 201412261-501203-701475338-5050-6942-S0 / Runs / 8ef30e72-D8CF-4218-8A62-BCCDF673B5AA 1.2.0.tar.gz'
E1229 12:34:45.927089 8571 fetcher.cpp:109] HDFS copyToLocal не удалось: hadoop fs -copyToLocal 'hdfs://10.170.207.41/spark/spark-1.2.0.tar.gz' '/tmp/mesos/slaves/ 20141226-161203-701475338-5050-6942-S0 / Frameworks / 20141229-111020-5050-985338-5050-985338-5050-985-0001 / Executors / 201412261-161203-701475338-5050-6942-S0 / Runs / 8EF30E72- D8CF-4218-8A62- bccdf673b5aa/spark-1.2.0.tar.gz '
ш: 1: хауп: не найдено
Не удалось получить: hdfs://10.170.207.41/spark/spark-1.2.0.tar.gz
Не удалось синхронизироваться с подчиненным (вероятно, он вышел)
Интересно то, что когда я переключаюсь на подчиненный узел и запускаю ту же команду
hadoop fs -copyToLocal 'hdfs://10.170.207.41/spark/spark-1.2.0.tar.gz' '/tmp/mesos/slaves/20141226-161203-701475338-5050-6942-S0/frameworks/20141229-111020 -701475338-5050-985-0001/executors/20141226-161203-701475338-5050-6942-S0/runs/8ef30e72-d8cf-4218-8a62-bccdf673b5aa/spark-1.2.0.tar.gz'
, хорошо пошло.
hadoop
в его PATH и разрешение на выполнение? - person Adam   schedule 29.12.2014