caching

    0

    3答えて

    のの事前計算/キャッシング部品(それが唯一のダミー例です)のは、Pythonで次の関数を考えてみましょう: from math import factorial def f(x, param): init = factorial(param) return x**param/init この関数はxの異なる値を持つメインコードの中に何度も呼ばれているが、同じ値のparam

    0

    1答えて

    WordPress APIを照会するときに起点ヘッダーのキャッシングと考えられる問題があります。しかし、私は何が起こっているのか、どのように修正できるのかを正確に調べるのには苦労しています。 ファースト - ここで何が起こっているのかです: 私はAJAXを経由してWP APIメニュープラグインによって追加のWordPress API、具体的にエンドポイントを照会ハブスポットのページを持っている -

    0

    1答えて

    キャッシュされたバージョンのデータをデータベースから読み込む必要があります。同時に、新しいデータをサーバーに要求したいので、これをページごとに行います。 たとえば、最初のページの場合、データベースから最初のページデータのキャッシュバージョンを表示し、最初のページのみ新しいデータを要求したいとします。 Paging Libraryを使用してこれを達成したいと思います。 私はページのロード要求を傍受す

    1

    2答えて

    Ignite v2.1およびdbeaverを使用してキャッシュを照会しています。キャッシュ内のオブジェクト内のコレクション、またはキャッシュ内のオブジェクト内の複雑なオブジェクトにクエリを照会することは可能ですか?そしてもしそうなら、どのような構文ですか? たとえば、IgniteCacheやPersonのようなキャッシュがある場合、次のような構文があります。1)アドレスを選択し、2)兄弟名&のアド

    1

    2答えて

    コンピュータAで「サーバーモード」として起動されたIgniteインスタンスをキャッシュに作成し、キャッシュ内に1MのKey-> Valuesを格納しました。 その後、コンピューターAのIgniteインスタンスに参加し、2ノードのクラスターを持つコンピューターBのIgniteインスタンスを「サーバーモード」として開始しました。 コンピュータAを保守のためにシャットダウンすることができ、すべてがコンピ

    3

    1答えて

    サービスワーカーを使用しないWeb純粋なバニラJavaScriptアプリケーションでは、AWS S3ファイルサーバー上にあるJavaScriptファイルを明示的にキャッシュします。次のスクリプトは、(それがクライアントのプロジェクトだと私はURLを変更した)アプリケーションのindex.htmlファイルに座って次のようになります。 <script> caches.match('https

    0

    1答えて

    私は自分のWebサイトの最初のページの読み込みに問題があります。すべてのページが最初に読み込まれるまでに2〜5秒かかっています。秒。 ページでデータベースが不調になっても、最初のページの読み込みが遅く、コードをデバッグして問題がキャッシュにあることがわかりました。したがって、キャッシュから読み込んだ部分を削除すると、最初の読み込みが高速になります。 Laravelのバージョンは5.2で、私はGod

    0

    1答えて

    私はワニスキャッシュサーバーを持っています。私は3つのホストだけがURLまたはドメインをパージすることを許可したいと思います。私は、公式ウェブサイトとしてパージするため、以下のワニスの設定を使用することは言う: curl -X PURGE "domain_name.com" I: backend web_servers { .host = "192.168.1.20";

    0

    1答えて

    私はこのMicrosoftドキュメントCaching Support for WCF Web HTTP Servicesを見てきましたが、ユーザーリストのキャッシュを作成できました。 これは、それがどのように見えるかです: public List<ForJson.User> UserList() { bool nil; WebOperationContext.Current.

    0

    1答えて

    キャッシングに関する私の理解は間違っていますか?すべての変換後の結果のRDDは1 GBのように非常に小さいです。計算されたデータは、サイズが〜700 GBと非常に大きいです。 非常に小さな結果のRDDを計算するために、何千ものかなり大きなファイルを読み込むロジックを実行する必要があります。各反復処理では、400ファイルの次のバッチが処理されます。読み込まれると、サイズが約700 GBまで上がります