私は、各行が1つのJSONレコードであるログファイル用のパーサーを作成します。多数の小さなJSONデータチャンクを効率的にデコードするにはどうすればいいですか?
私はループ内の各ラインをデコードすることができ:
logs = [json.loads(line) for line in lines]
または私は一度にファイル全体をデコードすることができます:
logs = json.loads('[' + ','.join(lines) + ']')
は、私は、実行時間を最小限にしたい、他の要因を無視してください。あるアプローチを他のものよりも優先させる理由はありますか?
私は、潜在的に遅いループを避けるため、ファイル全体をデコードする方が速いと思っていますが、それは解決策とベンチマークの両方をお試しください。 – Delgan