2017-05-31 13 views

答えて

0

おそらく、filebeatとlogstashを使用する必要があります。

Filebeatはあなたのcsvファイルを読み、logstashに送信します。

https://www.elastic.co/guide/en/beats/filebeat/current/filebeat-installation.html

Logstashは、あなたのデータを解析し(それはパースをCSVすることができます)とelasticsearchに送信。あなたはこのPythonスクリプトを使用してESにCSVを読み込むことができ

https://www.elastic.co/guide/en/logstash/current/plugins-filters-csv.html

0

Logstashのcsv入力に

import csv 
from elasticsearch import helpers, Elasticsearch 
es = Elasticsearch() 
with open('file.csv') as f: 
    r = csv.DictReader(f) 
    helpers.bulk(es, r, index='index_name', doc_type='doc_type') 

これはelasticsearchするCSVファイル内のすべての行の一括挿入を行います。 100個ほどのアイテムを大量に挿入する場合は、カウンタを作成して一度に100個のアイテムを挿入できます。

PS:Javaの場合は、このライブラリhereをご覧ください。

+0

このpythonスクリプトはどこに書きますか? – dharani

+0

あなたはcsvが置かれているのと同じフォルダにスクリプトを書くべきです。それ以外の場合は、CSVの書き込みパスを回線番号で指定することができます。 4. –

+0

私はCSVを弾力性のある、重要なものにロードしました。私はsincedbパスについても言及する必要があります! – dharani

関連する問題