Я новичок в Flume-Ng, и мне нужна помощь в сохранении файла. У меня есть кластер, на котором работает Hadoop, а Flume работает удаленно. Я общаюсь с этим кластером с помощью шпатлевки. Я хочу сохранить файл на своем ПК и поместить его в HDFS в кластере. Я использую для этого следующий код.
#flume.conf: http source, hdfs sink
# Name the components on this agent
tier1.sources = r1
tier1.sinks = k1
tier1.channels = c1
# Describe/configure the source
tier1.sources.r1.type = exec
tier1.sources.r1.command = tail -F /(Path to file on my PC)
# Describe the sink
tier1.sinks.k1.type = hdfs
tier1.sinks.k1.hdfs.path = /user/ntimbadi/flume/
tier1.sinks.k1.hdfs.filePrefix = events-
tier1.sinks.k1.hdfs.round = true
tier1.sinks.k1.hdfs.roundValue = 10
tier1.sinks.k1.hdfs.roundUnit = minute
# Use a channel which buffers events in memory
tier1.channels.c1.type = memory
tier1.channels.c1.capacity = 1000
tier1.channels.c1.transactionCapacity = 100
# Bind the source and sink to the channel
tier1.sources.r1.channels = c1
tier1.sinks.k1.channel = c1
Я считаю, что ошибка в источнике. Этот вид источника не требует имени хоста или IP-адреса для поиска (в этом случае это должен быть мой компьютер). Может ли кто-нибудь просто дать мне подсказку о том, как сохранить файл на моем ПК, чтобы загрузить его в удаленно расположенную HDFS с помощью Flume.