Я использую метод import cucumber.api.cli.Main
для вызова основного метода огурца, например
Main.main(
Array(glue,gluePath,tag,tagName,plugin,pluginNameAndPath,
"hdfs:///user/test/hdfs.feature"))
Можно ли читать файлы функций из местоположения HDFS, поскольку он работает с локальным путем?
Способ чтения пути hdfs
val fs = FileSystem.get(new Configuration());
val fsDataInputStream = fs.open(new Path("/user/test/hdfs.feature"))
который я также могу передать во входной поток, но проблема в том, что Array() принимает только строку, а читатель hdfs возвращает входной поток, а также файловую систему. Есть ли решение этой проблемы?
Для дополнительной справки. Эта проблема возникает, когда я использую «spark-submit --master yarn --deploy-mode cluster».
Он отлично работает для «spark-submit --master yarn --deploy-mode client».