bulkinsert

    0

    1答えて

    HBaseにいくつかの大きな.csvファイルをインポートしようとしています(合計で1TB超)。データはリレーショナルDBからのダンプのように見えますが、UIDはありません。また、すべての列をインポートする必要はありません。標準のhbase importtsvバルクインポートを使用してそれらをインポートできるように、カスタムMapReduceジョブを最初に実行して、必要な形式(列を選択+ UIDを生

    1

    1答えて

    後に浮くようにvarchar型に変換できませんし、私はいくつかのアイデアを期待しています。 .datファイルから一時テーブルにバルク挿入を行い、エラーが発生したときに既存のテーブルに追加するときにデータをフロートに変換したいとします。トラブルシューティングを行う CREATE TABLE #Temp_Table ([Op_Base_Qty] VARCHAR(50) NULL) BULK INS

    2

    2答えて

    私はPostgreSQLのテーブルにアップロードしたい1つのフォルダに194 imagesを持っています。 SQLコマンドを使用しています - INSERT INTO Uploaded_images (img) VALUES (bytea_import('C:\300dpi jpegs\Vintage.jpg')) 1つのコマンドですべての画像をアップロードするにはどうすればよいですか。 ま

    0

    1答えて

    以下のコードをtryブロック内に書きましたが、catchブロックにエラーが発生しません。スタンドアロンの一括挿入はエラーメッセージを生成します。 BEGIN TRY SET @sql = ' BULK INSERT dbo.vw_Data_Import_ISO_CSP_OPMHC_Premium--<-- table view FROM ''

    0

    1答えて

    使用例:今はPython elasticsearch APIフォームの一括挿入を使用しています。 一括挿入コードをラップする以外は試してみましたが、例外が発生した場合はいつでも、挿入された文書はロールバックされません。 また、例外をスローする破損したドキュメント以外の残りのドキュメントを挿入しようとしません。

    2

    2答えて

    複数のフラットファイルの一括インポートにOLE DBの宛先を使用していました。いくつかのチューニングの後、私はSQL Server Destinationを25〜50%高速化することになりました。 ウェブ上に矛盾した情報があるので、私はこの宛先について混乱していますが、いくつかは反対しているものもあれば、それを使用しているものもあります。私は知っている、私はそれを生産に展開する前に深刻な落とし穴が

    0

    1答えて

    トリガーをテストしましたが、1つの挿入行でのみ動作します。 トリガーが複数行の挿入で失敗し、トリガーを修正する構文が見つかりませんでした。 これを修正するための提案はありますか? 私は問題を気付かせるstackoverflowユーザーのおかげです。

    0

    1答えて

    データベースにデータが挿入されています。それは完全に正常に動作しますが、これを行うためのより良い方法があることを知っている..私はどのようにこれらのすべてのクエリを単一のものに圧縮する必要がありますか? データ data = [{Location: 'A', shift: '1'}, {Location: 'B', Shift: '2'}, {Location: 'C', Shift: '3'}]

    0

    1答えて

    私はスキーマ(id, numvalue1, numvalue2, name, surname, telephone)を持つリレーショナルテーブルを持っています。最初の3つの列はintegerで、最後の3つの列はnvarcharです。 Virtuosoに100万レコードをロードするには、バッチインサートで約5〜6時間かかります。 大規模なリレーショナルデータをVirtuosoにロードする(RDFデー