flume在我要推送的hdfs文件中添加了一个随机数(test.csv > test.csv.1591560702234)

问题描述 投票:0回答:1

当我把一个文件放在本地目录下时(vagrant/flume/test.csv),在HDFS中flume将其变成(/user/inputs/test.csv.1591560702234),我想知道为什么HDFS会增加了以下内容 1591560702234 以及如何删除它!

这是我的flume.conf文件

# Flume agent config
a1.sources = r1
a1.sinks =  k2
a1.channels = c1

a1.channels.c1.type = file
a1.channels.c1.type = memory
a1.channels.c1.capacity = 1000

a1.sources.r1.channels = c1
a1.sources.r1.type = spooldir
a1.sources.r1.basenameHeader = true
a1.sources.r1.spoolDir = /vagrant/flume

a1.sinks.k2.type = hdfs
a1.sinks.k2.channel = c1

a1.sinks.k2.hdfs.filePrefix = %{basename}
a1.sinks.k2.hdfs.writeFormat = Text
#a1.sinks.k2.hdfs.fileSuffix =
a1.sinks.k2.hdfs.fileType = DataStream
a1.sinks.k2.hdfs.path = /user/inputs/

a1.sinks.k2.rollInterval = 0
a1.sinks.k2.rollSize = 0
a1.sinks.k2.rollCount = 0
a1.sinks.k2.idleTimeout = 0

# Bind the source and sink to the channel
a1.sources.r1.channels = c1
a1.sinks.k2.channel = c1
hadoop hdfs flume
1个回答
0
投票

Flume是以毫秒为单位添加时间的,从你的例子来看。

select from_unixtime(ceil(1591560702234 / 1000));
+----------------------+--+
|         time         |
+----------------------+--+
| 2020-06-07 22:11:43  |
+----------------------+--+

我认为用flume配置是不可能删除时间戳的。

但你可以添加一个后缀为 hdfs.fileSuffix.来自文档。

hdfs.fileSuffix –   Suffix to append to file (eg .avro - NOTE: period is not automatically added)

你也可以把更多的事件放在一个文件里,用一些flume属性来实现

请检查

  • 批量
  • 滚动大小
  • 滚动时间
  • 辊数

你也可以用HDFS命令合并目录。

getmerge
Usage: hadoop fs -getmerge [-nl] <src> <localdst>

输入一个源目录和一个目标文件,并将src中的文件合并到目标本地文件中。可以选择设置 -nl 来启用在每个文件的结尾添加换行符(LF)。-skip-empty-file 可以用来避免在空文件的情况下出现不必要的换行符。

示例:-nl

hadoop fs -getmerge -nl /src /opt/output.txt
hadoop fs -getmerge -nl /src/file1.txt /src/file2.txt /output.txt
© www.soinside.com 2019 - 2024. All rights reserved.