2017-06-19 1 views
1

私はLOAD CSVコマンドを使ってNeo4jのノードと関係をインポートしています。私は大きなファイルをインポートするために(+/-各ファイルの50万のレコード)を使用するので、私は同様にUSING PERIODIC COMMITを使用しています。USING PERIODIC COMMITのパフォーマンスn - Neo4j

USING PERIODIC COMMIT 1000またはUSING PERIODIC COMMIT 5000を使用した方がよいか、パフォーマンスのために一括して使用されているレコードの数が多いかを知りたいのですが。

一番太っているのは大きな数字ですか?

Ps:マシンに空きRAMがたくさんあります。

ありがとうございます。

答えて

2

数字が大きいほど処理が速くなります。その理由は、大きな数字はコミットの量が少なくなることです。その結果、IOディスク操作の量が少なくなります。

例:1000レコードとUSING PERIODIC COMMIT 50の場合、ディスク操作(1000レコード/ 50)で20の結果が得られます。 USING PERIODIC COMMIT 100に変更すると、ディスク操作で10回の書き込み(1000レコード/ 100)になります。

+0

利用可能なメモリ番号を考慮して使用できる最大数を計算する式はありますか? ありがとうございます。 – Jhonathan

+0

私はこのようなものでドキュメントを検索して何も見つかりませんでした。ごめんなさい。しかし、インポートプロセスを開始する前に、Neo4jで使用可能なRAM容量を設定する必要があります。 [このリンク](https://dzone.com/articles/load-csv-neo4j-quickly-and)をご覧ください。 –

+0

はい、私はインポートプロセスについて知っており、うまくいきます。私はちょうどプロセスの速度を向上させたい。ありがとう。 – Jhonathan

関連する問題