compression

    0

    1答えて

    Deflaterクラスを使用してテキストファイルをエンコードしようとしています。難しいのは、テキストファイル全体をエンコードするのではなく、各行の部分文字列をエンコードすることです。 ELEMENT(1):{dataToEncode} ELEMENT(2):私のテキストファイルは次のようになります{dataToEncode} 私は、キーは、要素ID(整数)であるHashMapを返すようにしたいとど

    0

    1答えて

    私はzlibを使用しており、圧縮解除にいくつか問題があります。私は機能を "膨らませる"ために来るパケットを解凍しようとするが、 "膨張する"は私に-3を返す。 00 00 00 ff ffの組み合わせは、データがdeflateアルゴリズムによって圧縮されていることを教えてください。だから私はデコンプレッサーパラメータMAX_WBITS、 - MAX_WBITS、30でデータを解凍しようとしました

    0

    1答えて

    websocket(両端のPython API)で複数の大きなPandas Dataframesを含むpickled python辞書を送る必要があります。パフォーマンスを向上させるために、pickledオブジェクトをwebsocketに送る前に圧縮したいと思います。ただし、これを行うとき、受信メッセージは常にNoneです。 クライアント: df = pd.DataFrame({'a':[1,2,

    2

    1答えて

    ストリーミングモードが現代の圧縮/解凍アルゴリズム(ZStandardやLZ4など)で提供されているものと、それをどのように悪用できるのか分かりません。 たとえば、4x16KBというファイルがあるとします。私は(個々に)各ファイルを圧縮し、4xDifferentCompressedLengthファイルを入手することができます。しかし、ストリーミングモードを使用して4つのファイルをまとめて圧縮するこ

    0

    1答えて

    したがって、基本的に私のアプリはJSONでデータをサーバーに送信します。データのサイズは日々増加しているので、データの消費量(インターネットデータ)も増えています。だから、私はちょうど私のデータ消費を減らしたかった。基本的な方法の一つは、検索中に、私は私が思いついた事のsending.Someだデータをgzip圧縮することである で縮小化 2. JSONH - JSON均質コレクションコンプレッサ

    0

    1答えて

    圧縮前の圧縮データのサイズをバイトで知りたい。私はテキスト文字列をベクトルに挿入するだけですが、ランダムに削除することができ、各操作(挿入/削除)後に圧縮サイズ(圧縮せずに)を知る必要があります。 zlibを使用できますか?

    1

    1答えて

    Rの一部をハードディスクに保存する必要があります。dataframesDFのディメンションはかなり大きい(〜50K行と> 50列)ので、私はそれらのうち200K以上を持っているので、ハードドライブのスペースを節約するためにそれらを圧縮して保存したいと思います。 はこれまでのところ、私はそれぞれ、〜60MBと20 MBを取るなど.CSV、rds(compress = "gzip")のようなタイプのカ

    0

    2答えて

    私は1kbから100mbまでのすべてのサイズで圧縮と圧縮解除をテストするための大きなテキストファイルを探しています。誰かが私にリンクをしてそれをダウンロードしてもらえますか?

    1

    1答えて

    AWS CloudfrontでGzip圧縮を有効にするには、現在の最小しきい値ファイルサイズを1KBにする必要があります。圧縮の最小ファイルサイズを1KBから200Bに減らしたいと思います。どうすれば同じものを設定できますか?

    3

    1答えて

    "シリコンバレー" TVシリーズに示されているように、何かを圧縮する効率によって与えられるワイズマンスコアのようなものが本当にありますか?