Filebeatを使用して、Logstashを使用して各ノードの所定のディレクトリから共通のElasticsearchデータベースにログファイルをコピーする予定です。たとえば、ソースディレクトリには、同じログ形式のログファイルがあり、それらは毎日高速で成長しています。Filebeat with ELK>ログファイルごとにインデックスを効率的に構築する方法
これらの10個のログファイルは同じログ形式ですが、10個の異なるプログラムによって生成されていますが。したがって、長期的には、ログファイルごとに1つのインデックス、すなわちインデックスを作成することをお勧めします。各インデックスは1つのログファイルに対応しています。まず、これは適切な計画なのですか?または、インデックスが毎日のベースで生成されるため、すべてのログデータのインデックスは1つで十分ですか?
IFこの目標を達成するには、ログファイルごとにインデックスを作成するのが賢明ですか? filebeat.ymlは1つのインデックスしか定義できないように見えるので、1つのFilebeatを使用して複数のインデックスを生成することは不可能です。そのための良い解決策はありますか?
1日のインデックスの大きさによって、クラスタ内にいくつのノードがあるのか、クラスタにいくつの断片があるのか、そしてどのような成長計画があるのかによって異なります。 –
私が言及したように、毎日のインデックスが超大であると仮定します。私は主に、各ログファイルのインデックスを作成する方法を知りたい – Rui