logstashへの入力は大きな弾性の検索インデックスに大きなjsonファイルの入力を分割する方法は?
input {
file {
path => "/tmp/very-large.json"
type => "json"
start_position => "beginning"
sincedb_path => "/dev/null"
}
とサンプルJSONファイル
{"type":"type1", "msg":"..."}
{"type":"type2", "msg":"..."}
{"type":"type1", "msg":"..."}
{"type":"type3", "msg":"..."}
は彼らが異なる弾性検索インデックスに供給作ることが可能ですので、私は将来的には簡単にそれらを処理することができますか?
私はそれがtag
でそれらを割り当てることが可能であるならば、私は
if "type1" in [tags] {
elasticsearch {
hosts => ["localhost:9200"]
action => "index"
index => "logstash-type1%{+YYYY.MM.dd}"
flush_size => 50
}
}
ような何かを行うことができます知っています上記の例でtype
?
答えが正しいですが、あくまでも参考のために、あなたができますdo:if [type] == "type1" – pandaadb