私はインターネット上の何十万という他のサイトのプライバシーポリシーのレビューをするサイトを作っています。初期コンテンツは、CommonCrawl 50億ページのウェブダンプを実行し、analyzing all the privacy policiesにスクリプトを使用して特定の特性(「個人情報を販売する」など)を特定することに基づいています。 SEO MOZ Beginner's Guide to SEOによるとSEOに罰金を科せずに100万ページを超えるリンク
:
検索エンジンでは、唯一の任意のページにある約100のリンクをクロールする傾向があります。 この緩い制限は、スパムを抑えて のランキングを維持するために必要です。
私は孤立した何ページを残さないナビゲーションのウェブを作成するためのスマートな方法だろうかと思ったが、それでも彼らは話すこのSEOのペナルティを避けるだろう。
- アルファベットのページを作成します(またはGoogleサイトマップの.xmlさん)、「アド*で始まるサイト」のような:私はいくつかのアイデアを持っています。そして、それは例えば "Adobe.com"をそこにリンクするでしょう。これ、または他の無意味なページ分割は、一種のものだと思うし、Googleがそれを好まないかもしれないのだろうかと思う。
- メタキーワードまたは説明を使用して分類する
- 地理的またはコンテンツベースなどのより興味深いカテゴリを適用する方法を見つける。ここで懸念しているのは、このようなカテゴリをどのようにして多くのサイトに適用できるかわかりません。私は、クロールからページの内容を分析して分析するために、別の分類器を書く必要があると思っています。しかし、それ自体の大きな仕事のように聞こえる。
- DMOZプロジェクトを使用してページを分類します。
WikipediaとStackOverflowは明らかに、ユーザーがすべてのページを分類またはタグ付けできるようにすることでこの問題を非常にうまく解決しています。私の場合、私はその贅沢はありませんが、私は最高の選択肢を見つけたいと思っています。
この質問の中核は、Googleがさまざまなナビゲーション構造にどのように対応しているかです。それはプログラム的/無意味な方法でページのWebを作成する人々に不利益を与えるか?または、すべてがリンクを介して接続されている限り、それは気にしませんか?
リンクを分割するさまざまなアプローチについて考えてみましょう。 Googleは他のものよりも有意義な部分があることを気にしますか? – babonk
別の並べ替え順よりも、ある並べ替え順の処理が優れていません。サイトマップファイルあたり10MB未満、ファイルあたり50,000以下のGoogleのガイドラインに従ってください。実際には、sitemap.xmlファイルの各リンクの優先度をGoogleに実際に伝えることができます。 – Jason