query-tuning

    0

    1答えて

    データベースシステムについて学ぶために使用する講義ノートで、この文を見ました。 索引に含まれるすべての列は、索引に表示される順序と同じ順序でWHERE句とJOIN句に表示されます。 タイトルはSQLクエリチューニングの下にあります。 私はそれが何を言い、なぜそれが理解できないのですか。 文章を理解するのを手伝ってもらえますか? 私はそれほど複雑ではないもののGoogleを検索しましたが、それを検索

    1

    2答えて

    2つのテーブル結合とWHERE節を持つ次の簡単なクエリがあります。 私は既にキー結合フィールドとWHERE句フィールドのインデックスを作成しました。 これらの2つのテーブルには、約12300万行のかなり大きなものがあります。以下の完全な質問を完了するのに約7/8時間かかります。私は、インデックス化し、それがJOIN & WHERE句を持つような単純なクエリがありますので、行うことが他に何かわからな

    0

    2答えて

    のためにアイデアを探して、クエリを実行し、私は列の一つが、このページから取られた別のクエリを使用しているビューでTestViewに というビューを持っています - http://www.simple-talk.com/sql/t-sql-programming/concatenating-row-values-in-transact-sql/ すなわち、このフォーマットに沿って次のクエリを実行する

    0

    1答えて

    SELECT B.tblBooking_id, F.M_Merged_CustomerId, B.depart_date, B.cancellation, B.booking_num, B.end_date, B.date_booked, B.booking_price, B.tblBooking_Id as SOURCE_RES_ID , B.agentid, B.is_i

    2

    2答えて

    上のXMLデータを解析するために、クエリ私はVARCHAR(MAX)列内のレコードの変更の監査情報を格納するSQL Serverの2014データベース上のテーブル持っている(貧乏人のCDCを。) このデータは、以下であります形式: <span class="fieldname">Assigned To</span> changed from <span class="oldvalue">

    1

    1答えて

    私はmysqlを初めて使っています。私は50Kの行(70列)を持つ2つの同一のmysqlテーブルを持っています。これらのテーブルは毎日データフィードによって更新されます。交差/減算などのネストされたクエリを実行する必要があります。 私が使用しようとしているクエリの1つは次のとおりです。 しかし、正しく動作しません。 5分かかりますか? 〜10分。 (端末を介して)応答しない。 SELECT *

    0

    1答えて

    以下は最適化が必要なコードです。 for i in 1 .. p_in_util_data_list(j).factlist.count LOOP SELECT count(*) INTO v_non_factor_exists FROM engine_usage_factors WHERE usage_month = v_usage_m

    0

    1答えて

    Sybase IQ 16のパフォーマンス・チューニングに取り組んでいます。専門家の助けを借りて質問を調整する 1)プラン出力を生成するコマンドがありますか。 2)クエリをチューニングするための一般的なガイドライン/手順はありますか。

    -3

    2答えて

    複数のテーブルからデータを取得するために複数の結合を持つクエリを作成しました。 5000以上のレコードでは非常に遅いです。私はチェックし、インデックスでは、クエリで使用される各テーブルに対して適切に設定されています。私は複数のオプションでこのクエリを最適化しようとしましたが、うまくいかず、EXPLAINまたはEXPLAIN EXTENDEDヘルプを正確に理解できません。 ===== QUERY E

    -3

    1答えて

    私は1つのUNIXスクリプトを持っています これでは、SQLローダを使用してテーブル、インデックスを作成し、ファイルからこのテーブルに日付をロードしています。 この表では、70回近くの直接更新(全部または大量収集を使用しない)を行っています。 最後に、この新しいテーブルのデータを別のテーブルに挿入しています。 1日あたり500,000レコードを処理しています。これらのアップデートはすべて非常に高速