elasticsearch DBに約1TBのデータをアップロードしました。そして、検索10000としてindex.max_result_windowのデフォルト値は「+サイズから」弾性検索で「search_after」を使用して1Mデータを検索する
、私は100000から検索したかった、それゆえ私は100000にindex.max_result_window設定 - 私は、次の方法を試してみました検索するための 100000からsize = 10までですが、ヒープサイズがいっぱいになります。
スクロールAPI - 古いセグメントを有効に保つために、より多くのファイルハンドルを使用します。したがって、ノードで構成されたメモリを再び消費します。
search_after - 私は_uidに基づいて文書を分類しようとしたが、それは誤りをfollwoing私を与える -
-
{
"error": {
"root_cause": [
{
"type": "circuit_breaking_exception",
"reason": "[fielddata] Data too large, data for [_uid] would be [13960098635/13gb], which is larger than the limit of [12027297792/11.2gb]",
"bytes_wanted": 13960098635,
"bytes_limit": 12027297792
}
}
},
このエラーを解決するためにできることは何とでもありますページ区切りで大量のデータを検索する最も効率的な方法は?
検索リクエストの本文を投稿できますか? –
私は渡された "_id"が大きく、ドキュメントによると "id"は索引付けされていませんが、 "_uid"は索引付けされていれば大きすぎないはずです。 –