あなたが望むだけの負荷時間をカットしない可能性があるので、変換に間違った方向を見ている可能性があります。デコードに多くの時間がかかる場合、JSONデコーダが本当にひどく書かれていないと仮定すると、おそらく他のフォーマットからかなりの時間がかかるでしょう。私は、標準のライブラリ関数がうまく実装されていると仮定しています.JSONはデータストレージの速度的なフォーマットではありません。
あなたが使用していると仮定するデフォルトのCPython実装ではなく、PyPyでプログラムを実行してみることができます。 PyPyは実行時間を大幅に短縮する可能性があります。それはより速いJSONモジュールを持っていて、あなたのプログラムを高速化するかもしれないJITを使用します多くの。
Python 3を使用している場合は、ProcessPoolExecutorを使用して、ファイルの読み込みとデータの直列化/デコードを同時に実行することもできます。並行性の程度を試す必要がありますが、開始点はCPUコアの数です(半分または2倍にすることができます)。あなたのプログラムがI/Oをたくさん待っているならば、より高い並行性を実行しなければなりません.I/Oの程度が小さければ並行性を減らすことができます。各エグゼキュータを書き込んでPythonオブジェクトにデータをロードし、単にそれらを返すようにすると、読み込み時間を大幅に短縮できるはずです。 GILではスレッドが機能しないため、プロセス駆動型のアプローチを使用する必要があります。
また、faster JSON libraryを使用すると、最適なケースで2倍または3倍の実行時間を短縮できます。実世界のユースケースでは、スピードアップはおそらく小さくなります。 代替のCFFIインプリメンテーションを使用し、CPythonプログラムでは動作しないため、PyPyには良いJSONモジュールがあるため、これらはPyPyでは動作しない可能性があります。
['MessagePack'](https://msgpack.org/)[[msgpack-python'](https://github.com/msgpack/msgpack-python))を試してください。一般的なデータ構造の場合よりもはるかに高速になることはありません。もちろん、あなたのデータをあなたのデータに合わせて調整して、最後の1オンスのパフォーマンスを絞り出すことができますが、その時点で私の戦略を最初に思い浮かべます。 – zwer