状況:大量のデータをデータベースから取得する必要があります(〜150k +)。その後、PHPを使用して、そのデータを1日の数字に基づいて分割し、それを数えます(1番目:〜10k、2番目:〜15k、など...)。そしてそれを実行した後、その情報をすべてJSON配列にフォーマットしてクライアントに戻し、これらの統計情報に関するグラフを表示する必要があります。MySQLからPHPまで、さらにはJSONのクライアントまで大規模なデータセットを扱います
これですべてがPHPでうまく処理できることは確かですが、おそらくサーバー+帯域幅に多くの負荷がかかります。特に、クライアントが更新された統計情報を表示するためにページを更新している場合は特にそうです。彼らは毎日約5k +アクティブなユーザーであるため、多くのデータがフェッチされます。
これを処理するにはどうすればよいでしょうか?
注:サーバーには4GBのDD3 RAMが搭載されています。
お返事ありがとうございます。データはアカウントにのみ関連しているため、すべてのデータはすべてのユーザーに固有です。 PHPが生成した情報を別のInnoDBテーブルにキャッシュし、その後10分ごとにすべてのデータをダンプし、ユーザーが再びページに当たると再現することを考えています。 – kashn