2010-12-14 7 views
0

私はPHP技術で作成されたウェブサイトを持っており、ロボットがウェブサイトからの画像に対処できないようにしたいと考えています。ロボットがウェブサイトの画像に対処できないようにする

SEOに影響しないことを確認してください。 spydersとcrawlerがサイトのインデックスを作成するのに影響しないことを確認してください。

+1

にとってはあまり有用なものにするときに、適切なイメージを提供あなたがロボットを止めれば、それをする奴隷を雇うだろう!奴隷労働をサポートしたいですか? :(ヒント**私が見る/ダウンロードできるものは、ロボットが見る/ダウンロードすることもできます... –

+0

タイムマシンを発明し、ロボットの発明家を絞殺しなければならない状況の1つではありませんか?出生時には? –

+0

ああ、そうです!すぐに!私たちはすぐにそれを取得します! –

答えて

3

他の人からも言われたように、可能であれば、robots.txtで画像にアクセスすることはできません。よく行動したボットはそれに従うでしょう。

「ホットリンクを防止する」を検索します。標準的な方法は、mod_rewriteルールを使用して、ドメイン内のリファラーなしでイメージファイルへのリクエストをブロックすることです。それはほとんどのボットを止めるでしょう。

get_browserと最近のファイルを使用して、何百もの一般的なクローラのユーザーエージェント文字列を一致させることができます。これは共有ホスティングでは一般的には利用できませんが、マニュアルのコメントを読む場合は、自分のコードから実行できるget_browsersの実装が必要です。

主要な検索エンジンにすべて画像検索があるため、これらのすべてがSEOに影響します。また、スクリーンショットを作成するときにボットがページ上の画像を見るのをブロックするため、検索結果にマウスを乗せたときにウェブページのスクリーンショットを表示する新しいGoogleウェブプレビューにも影響します。

1

あなたが他の人、特定のロボットを許可するようにrobots.txtのを設定することはできませんが、:

例えば:

User-Agent: * 
Disallow: /images 

User-Agent: Googlebot-Image 
Disallow: 

これはあくまでも一例です。他の正常に動作するロボットを許可することもできます。

しかし、robots.txtを無視しているロボットの動作が悪いことは何もしません。認証は少し助けてもいいですが(アカウントごとに画像アクセスを調整することはできますが)、実際には解決策はありません。

0

ない、それが動作したい場合には必ず、しかし、あなたがに/画像/フォルダのすべてのあなたのイメージを持っている場合は多分あなたはいくつかの潜在的な解決策は、画像を表示するには、Flashを使用して、または動的にロード含まれる場合があります

User-agent: * 
Disallow: /images/ 
0

を設定することができますページがロードされた後にJavascriptを介して非常に高速なアクセスを防止するためにIPによるページの読み込みを抑制することも考えられます。これにより、ロボットはサイトのスクレイピングを非常に遅くします。しかし、これらのソリューションには明らかな欠点があります。

あなたのウェブサイトでのコンテンツスクレイピングを防止するフェイルセーフの方法はありません。彼がアクセスしているサイトを掻き集めることを望む有能な開発者は、少しでも努力することができます。最善の策は、コンテンツに透かしを入れるか、有料の壁の後ろに置くことです。

+0

あなたのウェブサーバーのログを使って何が削られたのかを追跡し、あなたの許可なしに使用されます。 –

0

難しいですが、それを行うにはばかな方法はありませんが、あなたはボットの方が難しくなるように試みることができます。

どの瞬間に頭に浮かぶことは、次のとおりです。

  • はJavaScriptを使用して、画像へのリンクを作成する(ページ上のJavaScriptを実行するためにボットを強制します)

  • 使用CSSのスプライト(すなわち、いくつかの画像を1つの画像にまとめる)、ボットにとってはそれほど役に立たないかもしれません(例えば、ページ上の画像を収穫して再表示したい場合、複数の画像が1つにまとめられていると、

  • チェックHTTP_REFERERとだけHTTP_REFERERが許可されたドメイン

  • は、ドメイン名と画像の上にウォーターマークを入れて、他のサイト

関連する問題