2016-06-01 5 views
0

私はAPIを作成し、それにすべてのリクエストを記録しています。 APIログをテスト中APIのロギングとMYSQLのロード

誰かがAPIをヒットすると、挿入および更新は、(APIレスポンスコードを記録するために)がある

は約20万レコードです、これは非常に少数万枚のレコードに行くかもしれません早く。

このような種類のログ(挿入と更新)はサーバーに大きな負担をかけるのでしょうか?

私の懸念は、ログが原因でmysqlがオーバーロードされてしまい、7日ごとにログを整えなければならないかどうか不安です。

+0

この情報を後で使用する方法や、無駄な情報の収集者であるかどうかを判断してください。あなたは別のdbに 'select * into outfile'を残し、切り捨てることができます。あなたの必要性に応じて – Drew

答えて

0

数百万のレコードがデータベースをストレージに害することはありません。私は何億もの行を持つMySQLテーブルを持っており、インデックスを作成するとうまく動作します。 Data Manipulation StatementsOptimizationのMySQLマニュアルを参照して、実行していることがパフォーマンスの限界を引き上げるかどうかを確認してください。

MySQL's indexing guideもっと知りたい場合は

データベースのオーバーロードが心配な場合は、cronジョブを毎日バックアップしてから、特定の行数や時刻などを打った後に、データベースをバックアップしてから切り捨てるだけです。その後、必要なすべてのレコードをバックアップします。

これが役に立ちます。

+0

ありがとう。 「索引付け」と言うと、主キーで意味しますか? –

+0

私はMySQLインデックスのドキュメントへのリンクを追加しましたが、そうであるように、「PRIMARY KEY」はテーブルのインデックスの例です。テーブルに作成できる他のインデックスもあります。これは、何百万行ものクエリでクエリを実行するのに役立ちます。 :) –

関連する問題