-3
私は、異なる基準で検索できる数百万のレコードを持つサイトを持っており、結果はページに表示されています。サイトハック - サイトから情報を盗む
Googleアナリティクスの助けを借りて、突然、ROBOTが私の全データをページごとにトラバースしているのを見ました。
ユーザーがすべてのページを横断したり、すべてのページでそれが人間のユーザーであることを確認するのに使用できる方法はありますか?
私は、異なる基準で検索できる数百万のレコードを持つサイトを持っており、結果はページに表示されています。サイトハック - サイトから情報を盗む
Googleアナリティクスの助けを借りて、突然、ROBOTが私の全データをページごとにトラバースしているのを見ました。
ユーザーがすべてのページを横断したり、すべてのページでそれが人間のユーザーであることを確認するのに使用できる方法はありますか?
グーグルボットを遅くするためにいくつかのトリックがあります
これまで最も簡単な方法は、ユーザーが次のページに切り替える前に費やしているどのくらいの時間をカウントjavascriptの方法を行うことによってです。高速に切り替えると、結果を決定します(画面の読み込み、エラー、セッションの禁止)。
apache2を使用している場合、.htaccessには特定の時間内のユーザー対話を制限するいくつかのサーバー設定もあります。あなたはより多くの参照をthisを読むことができます
:私はあなたが100%確認することはできません疑う
。データが機密性がある場合は、少なくともlgoinページを作成してそれを後ろに置くことを検討してください – doctorlove
フォームの場合、コンピュータユーザーが人間であることを証明するReCaptchaをGoogleから使用できます。 – Nenroz
「良い」ボットの場合は、[robots.txt](http://www.robotstxt.org/)ファイルを作成して、ページが横断的でないことを丁寧に伝えます –