私はLOAD CSV
コマンドを使ってNeo4jのノードと関係をインポートしています。私は大きなファイルをインポートするために(+/-各ファイルの50万のレコード)を使用するので、私は同様にUSING PERIODIC COMMIT
を使用しています。USING PERIODIC COMMITのパフォーマンスn - Neo4j
USING PERIODIC COMMIT 1000
またはUSING PERIODIC COMMIT 5000
を使用した方がよいか、パフォーマンスのために一括して使用されているレコードの数が多いかを知りたいのですが。
一番太っているのは大きな数字ですか?
Ps:マシンに空きRAMがたくさんあります。
ありがとうございます。
利用可能なメモリ番号を考慮して使用できる最大数を計算する式はありますか? ありがとうございます。 – Jhonathan
私はこのようなものでドキュメントを検索して何も見つかりませんでした。ごめんなさい。しかし、インポートプロセスを開始する前に、Neo4jで使用可能なRAM容量を設定する必要があります。 [このリンク](https://dzone.com/articles/load-csv-neo4j-quickly-and)をご覧ください。 –
はい、私はインポートプロセスについて知っており、うまくいきます。私はちょうどプロセスの速度を向上させたい。ありがとう。 – Jhonathan