Я запускаю виртуальную машину с локальным экземпляром Hadoop и Spark-JobServer. Я создал файл с именем «test.txt» в HDFS, который я хочу открыть с Spark-JobServer. Для этого я написал следующий код:
val test1 = sc.textFile("hdfs://quickstart.cloudera:8020/test.txt")
val test2 = test1.count
return test2
Однако, когда я хочу запустить эти строки, я получаю сообщение об ошибке в Spark-JobServer:
"Input path does not exist: hdfs://quickstart.cloudera:8020/test.txt"
Я посмотрел путь к HDFS с помощью hdfs getconf -confKey fs.defaultFS
, и он показал мне путь hdfs://quickstart.cloudera:8020
. Почему я не могу получить доступ к файлу test.txt, если это правильный путь к HDFS? Если это неправильный путь, как я могу найти правильный путь?
hadoop fs -put 'test.txt'
значит это домашний каталог. Что вы подразумеваете под читаемостью файла? Это определенно читается из локально-локальной искровой оболочки на моем компьютере. - person Jan Janiszewski   schedule 25.01.2016