2012-03-25 18 views
0

大きなデータを処理する最適な方法は何ですか? 複数のajaxリクエストを過ぎてもPHP配列は過去のものです。複数のajaxリクエストで "大規模なデータjsonリクエスト"を処理する

たとえば、 私は最初のajaxリクエストの結果である10,000個の製品IDを含むPHP配列を持っています 2回目のAjaxリクエストに1度、最初にもう一度質問して10,000個の製品IDを取得しなければなりません。 3000製品のID

したがって、処理の種類は: です。リクエストごとに、製品IDを変更する必要があります。

私が現在検討している方法は、セッションまたはクッキー経由でIDの格納です。 しかし、最良の解決策は、jsonEncodeを経由して配列をシリアライズすることです。

これは、各リクエストを通過させるための多くのデータに問題があります。 私は現在、スクリプトの先頭にグローバル設定を試みました。

するvar globalProductIds = 0

その後、各要求の成功を、私たちは、製品IDをオーバーライドしますと、次の要求を送信します。 globalProductIds = data.productIds;

現在、これによりブラウザがフリーズしています。 jsonがうまくいかないと思う唯一の方法は、IDをデータベースに格納することです。毎分ユーザーごとに1000の行が生成される可能性があるので、これは特に良い解決策ではありません。

うまくいけば、そこにいる誰かがより良い提案をしてくれることを望みます。

答えて

0

私は過去24時間以内に応答がないようです。 さらなる調査の後、JavaScriptは大量のデータを処理するための最良の方法ではないようです。

私は、データベースを使用するキャッシングシステムを構築し始めました。 これは確かに今、最良の解決策であるようです。

関連する問題