grok

    1

    1答えて

    grokパターンを使用してカスタムログラインを解析しようとしていますが、そのラインを完全に解析できません。 カスタムログライン: site 'TRT' : alias 'TRT,FAK,FAS,ATI,ONE,DVZ,TWO' : serveur 'Test10011' RAS : TRT/TRT serveur 'Test10011' OK GROKパターン: %{DATA:site}\:%

    0

    1答えて

    編集:実用的な解決策。以下のオリジナルの質問。 private Timestamp extractTimestamp(Object timestamp) { try { return Timestamp.from(Instant.ofEpochMilli(Long.valueOf(String.valueOf(timestamp)))); } catch(Numbe

    1

    1答えて

    Logstash/Grokフィルタルールで解析されるログデータがあります。残念ながら、私のログメッセージの構造は正確には文書化されておらず、これは約1000のフィルタルールにつながります。これにより、解析処理が私たちの目的には遅すぎます。しかし、私は非常に大多数のデータが非常に少数のルールしか使って解析されないと思っています。 どのようなルールがどのくらいの頻度で使用されているかは、どのように確認

    0

    1答えて

    私はスイッチログ用のgrokパターンを書いています。私は、 "%" 文字はログ "" %DAEMON-3-SYSTEM_MSG "" 完全なログを形成無視する方法を得ていないのです 7月16日午前21時06分50秒%のDAEMON-3-SYSTEM_MSGは - :未解析可能な周波数/mnt/pss/ntp.drift

    0

    1答えて

    ログファイルのログレベルをgrokフィルタと一致させようとしていますが、それでもなお_grokparsefailureが得られます。問題は、[とログレベルの間のスペースである可能性があります。ログの 例:2017年4月21日10:12:03004 [INFO]メッセージ 私のフィルタ: "\[ *%{LOGLEVEL:loglevel}\]" "\[%{SPACE}%{LOGLEVEL:logl

    0

    2答えて

    こんにちは私はELKとGROKパターンに新しいです。以下はGROKパターンを作成するログファイルラインです。私が必要とするフィールドは、 '='の前にSplunkによって解析されます。 01 Aug 2017 17:58:19,048 INFO ProfileAspect[{applicationSystemCode=appname, clientIP=10.x.x.x, clusterId=Cl

    0

    1答えて

    私はELKのためにexim_mainlogを解析して組み合わせるための手助けが必要です。 問題は次です: マイlogstash複数行プラグインは、一つのイベントにユニークなメッセージIDを持つログファイルの行を収集することはありません。 4つの文字列を正しい順序で送信しようとすると、正常に動作します。このような 注文: 2017-04-10 00:00:30 1cxKsn-0001GB-2t CT

    0

    2答えて

    これは私のログファイルです。 Application-log-sample.log 2017-01-03 05:40:49.693 INFO main --- com.getsentry.raven.DefaultRavenFactory : Using an HTTP connection to Sentry. 2017-01-03 05:40:49.935 INFO background

    0

    1答えて

    [04-21 12:57:04] これは、pythonで書き込まれたログによって生成されたタイムスタンプです。 私は SYSLOGTIMESTAMP、DATESTAMP_EVENTLOG、DATESTAMP_RFC2822、TIMESTAMP_ISO8601 と、より多くのを試してみましたHAV。誰もこれのための正しいgrok形式を提供してください。 どのように私は、タイムスタンプ

    0

    1答えて

    私のログは、このようなものです:私はマッチしたとして、それはそれを示しているgrokconstructor siteにチェックすると filter { grok { match => [ "message", "\[%{TIMESTAMP_ISO8601:TIMESTAMP}\]\[%{LOGLEVEL:LEVEL}%{SPACE}\]\[%{DATA:QUERY}\