私はelasticsearchにインデックスを作成しようとしている巨大なjsonファイルを継承しました(実際はデータベースではありませんが、ほとんどのdb摂取)。私は摂取を行うためにノードを使用しています。私はストリームと非同期を試みましたが、私はこの問題に近づくためのフレームがありません。メモリのオーバーフローなどはありません。node.jsを使用して非常に大きなjsonファイルをデータベースに取り込みます
私は1に1を投稿することはできませんが、それは効果的のようなものに見える多次元オブジェクトだ:私はちょうどドキュメントを摂取する必要が
[
{
document: {
type: 1,
type2: 2,
type3: {...}
},
{...}
]
を、私はelasticsearchクライアントを使用して一括でそれらを処理することができます。ストリームを遅くし、解析し、チャンクする必要があります。
完全にスタック...ヘルプstackoverflow金曜日です。私は家に帰りたいです。 )。
https://www.npmjs.com/package/json-parse-streamを試しましたか? – migg
これはjsonストリーム解析の1つのバージョンかもしれませんが、私はこれを試してみます。 – unsalted
okこれでいくつかの進歩を遂げるが、このモジュールが解決策になるかもしれない。 – unsalted