2012-04-13 30 views
1

私のURLがすべて正しく動作するように、今すぐ私の.htaccessファイルがほぼ完成しました。しかし、私は簡単な質問を持っている:コンテンツの重複を避けるためのSEOフレンドリーなURL

私はこのようになりますrewirte持っている:これは私が釣り/ファイフに入力した場合/それはregion.phpファイルをロードすることで動作します

RewriteRule ^fishing/([^/]*)/?$ region.php?region=$1 [L] 

を。しかし、私が知りませんでしたか、または私がregion.phpを入力した場合、領域=ファイフそれはまた動作します。

私はこれが私に重複したコンテンツを与え、私のSEO評価が行われると信じています。どのように私はそれが自動的に釣り/ fife /に変更するregion.phpを入力する場合は地域ですか?

答えて

0

非書き換えURL構造(region.php?region = fife)にリンクしていない限り、ウェブクローラーがそのURLを検出する方法はなく、重複するコンテンツを取得することはありません。

人間がそのURLを入力して結果を得るのであれば、SEOに関する限りOKです。

あなたのアプリでは、きれいなURL構造だけを使用してください。

+0

ここでは、 'RewriteRule^fishing/$ fishing.html [L]' fishing.htmlがまだ動作しています。これはクローラーが見ることができるでしょうか?それは正しくないのですか? –

+0

クローラが物理的なfishing.htmlページを見つけることが技術的に可能である可能性があります。 index.htmlファイルがないディレクトリにあり、ディレクトリの参照を許可すると、クローラはそのディレクトリ内のすべての物理ファイルのリストを取得し、それらのディレクトリに1つずつ移動できます。ただし、robots.txtファイルを使用して、必要に応じて特定のファイルまたはすべてのファイルを拡張子で禁止することができます。たとえば、url構造体に拡張子を使用しない場合は、.htmlファイルがクロールされないように、 'Disallow:/ *。html $'をrobots.txtファイルに追加することができます。 .phpなどと同じです。 –

+0

私は必要な解決策のように聞こえます。私はそれを取るだけでrobot.txtという名前のファイルを作成し、あなたのウェブサイトのルートに置きますか? –

1

これに対するより良い解決策は、canonical URLsです。これは検索エンジンに、検索結果に表示したいURLがあり、そのページに到達する他のすべてのURLがその複製であり、そのページのランキング(受信リンクを含む)に向かって数えていることを伝えます。

あなたはではありません。で検索エンジンがその他のページを見つけられないようにしてください。彼らがそれを行うなら、それは重複したコンテンツであり、明らかに何かを避けるべきです。

関連する問題