compression

    1

    1答えて

    圧縮としてsnappyCodec、ファイル形式としてavroを使用して、sqoop 1.4.6を使用してRDBMSからhdfsにデータをインポートしています。私は次のように使用してHDFSにMySQLのテーブルをインポートしようとすると私は、次のコンポーネントが のHadoopに2.8.0 スパーク2.1.0 ハイブ1.2.2 スカラ座2.11.8 カサンドラ3.10 がインストールされていますコ

    2

    4答えて

    私はRに読み込もうとしているより大きな.gzファイル(2.1G)を持っていますが、それらを分割して個々に読み込んで再結合する。しかし、私はデータの構造を保持する方法でファイルを分割するのが難しいです。ファイル自体は、最初の2つの行を除いて、非均質なエントリを持つ56318 x 9592の行列です。 私はUbuntu 16.04を使用しています。まず、私は、このリンク(https://askubun

    1

    1答えて

    私はPLESKとnginxでpagespeedを使用します。すべてのCSSファイルが圧縮され、1つのファイルにマージされます。 test.com/A.style.css+style2.css+plugin.css+test.cssなど 追加のnginxコマンドなどでPLESKで開発するには、どうすればファイル圧縮を無効にできますか?私はCSSファイルをマージせずにnginxを使いたい。 ありがとう

    1

    1答えて

    私はlz4をMacで使用しており、私のプログラムで文字列(strという名前)を圧縮する実験を行っています。 、 Byte number:34,file size:1,bytes read:@1010 非常に奇妙な:OK、それは34バイトです $ls -lrt lz4.dat -rw-r--r-- 1 x staff 34 7 15 14:50 lz4.dat が、プログラムの出力は次のよ

    0

    3答えて

    ハフマンエンコーディングでは、単純にシンボル - >コードのマップを生成します。次に、ランレングス符号化では、このマップを使用してシンボルとコードを交換します。これにより、エンコード/圧縮したくない他のシンボルとコードを簡単に混合することができます。例えば、JPEGでは、[先行ゼロの数、AC係数のビット数]を符号化し、それをビットストリームに置き、その後にAC係数ビット表現が続きます。これは、ハフ

    0

    1答えて

    MongoSparkを使用して、MongoDBデータベースからJSONデータをSpark DataFrameとして読み込みます。今私は、DataFrameにあるJSONデータを寄木張りのファイルとして書きたいと思います。それは魅力的です。しかし、私は、生成された寄木張りファイルの圧縮に関連するオプションを設定するのに苦労しています。私はコーデックとしてSnappyを使いたいのですが、生成されたPa

    0

    1答えて

    zipファイルを作成していますが、zipファイルを開くと、D:LocalDiskのようなルートパスが表示され、zipファイルは表示されません。 これは、同じ問題に直面して誰かのジップ public void StartZip(string directory, string zipfile_path) { // the directory you need to zip Di

    2

    1答えて

    私は1024バイト(8192ビット)の配列を持っていますが、それらはほとんどゼロです。 ビットの0.01%から10%の間が設定されます(ランダム、パターンなし)。 構造の欠如と比較的小さいサイズを考えれば、これらはどのように圧縮できますか? (私の最初の考えは、私はそれぞれ距離の13ビットを必要とする。セットされたビット間の距離を格納することであったが、最悪の場合、10%の占有率で、これが改善され

    0

    1答えて

    Pythonで小さなスクリプトを作成しました。これは、自分のファイル名に基づいて古いWhatsapp写真のexifデータを設定できます。 私はpiexifとPIL(Pillow)パッケージを使用します。 import piexif from PIL import Image from collections import defaultdict img = Image.open(fname