2011-01-23 5 views
1

それほど疑問です。 standart sitemap.xmlより[効率的な再クロール/削除]、つまりGoogleのウェブサイトのインデックスエントリを管理する方が効率的ですか?Googleでサイトのインデックスエントリを再クロール/強制的に追加/強制するサイトマップより効率的な方法はありますか?

私は数年前、自分のウェブサイトにニュースを書き込むと、そのニュースのURLエントリがGoogleの検索結果にすぐに表示されるという未知のブロガーの記事を読んでいたことを覚えています。私は彼が特別なことについて言及していたと思う。私はまったく何を覚えていない。自動的にGoogleによって提供されるいくつかの自動再クロールシステム?しかし、私はそれについては分かりません。だから私は尋ねる、私は自分自身をblunderingと思うとsitemap.xml以外のインデックスのコンテンツを管理するための他の方法はありませんか?私はちょうどこれについて確かめる必要があります。

ありがとうございます。

+0

これはおそらくhttp://webmasters.stackexchange.comに属します。 – cHao

+0

参考までに、SEのgoogle-fuは強力です。 Googleは「サイトマップよりも効率的です」と出てくるものを見ています。 :) – cHao

+0

ああ..あなたが正しいと思います。 – PatlaDJ

答えて

1

私はあなたが探しているもの魔法「特効薬」答えを見つけるだろうとは思いませんが、ここに役立つかもしれないいくつかの追加情報やヒントがあります:

  • クロールのクロールとレートの深さがありますPageRank(影響を与えるいくつかの事のうちの1つ)の影響を直接受けます。サイトのホームページと内部ページのバックリンク数と品質を向上させることができます。
  • QDF - Googleのアルゴリズムの要素である「魅力的なクエリ」は、実際の影響があり、Googleカフェインインフラストラクチャプロジェクトの背後にある重要な理由の1つです。これはSEのようなブログやサイトがうまくいく主な理由の1つです。なぜならコンテンツは「フレッシュ」でクエリに一致するからです。
  • XMLサイトマップdoはインデックス作成に役立ちますが、ランキングが改善されることはありません。それらを使用して、検索ボットがアーキテクチャの深いコンテンツを見つけるのを助けます。
  • ping-o-maticのようなサイトの変化を監視するサービスへの、特にブログによる投稿は、新しいコンテンツの通知を本当に助けることができます。これにより、検索エンジンがすぐにそれを認識できるようになります。
  • クロール予算 - 変更されていない、またはインデックスに値する場所がないサイトの部分に検索エンジンの時間を浪費することに注意してください。robots.txtを使用すると、メタタグによって検索ボットが集まりますサイトのさまざまな部分(価値の高いコンテンツを削除しないように慎重に使用する)。

これらのトピックの多くはオンラインで扱われていますが、ナビゲーション構造、内部リンク、サイトアーキテクチャなどの他の本質的なものもあり、「トリック」または「デバイス」と同じくらい貢献します。

+0

ありがとう。結論を下してください: 1.あなたのウェブサイトからgoogleにURLを追加/編集/削除するように指示する他のエレガントな方法はありません。 2.「XMLのサイトマップは索引付けに役立ちますが、ランキングが向上しません」 - 質問はランキングに関するものではありません。索引付け効率 – PatlaDJ

+0

3「Ping、特にブログで、ping-o-maticのようなサイトの変化を監視するサービスに、本当に新しいコンテンツの通知を促すことができます」 - 聞いたことはありませんが、私はこれらの提案を探るつもりです!ありがとうございます! 4 " - あなたのサイトの一部に、検索エンジンの時間を浪費することに気をつけてください。robots.txtを使用すると、メタタグはサイトのさまざまな場所に検索ボットを拾うことができます – PatlaDJ

+0

Google Webマスターツールのように、インデックス作成の問題やステータスをよりよく把握できるように、他のツールも自由に使えることを指摘しておく価値はありますが私が概説した以外の方法はありません。私は、そうでないことを示唆するコメントを先頭に立てるように言及しただけです。がんばろう。 –

0

良いサイトからあなたのウェブサイトへのリンクが多くなると、Googleの「スパイダー」があなたのサイトにすばやくアクセスできるようになります。

また、Twitterのようなソーシャルサイトからのリンクは、クローラがあなたのサイトにアクセスするのを助けることができます(ただし、Twitterリンクは「リンクジュース」を通過しません。

最後に、コンテンツを定期的に更新し、コンテンツを「Google Spider Food」と考えてください。クモがあなたのサイトに来て、新しい食べ物を見つけられないなら、すぐに戻ってくることはありません。来るたびに新しい食べ物があると、彼らはたくさん来ます。たとえば、記事のディレクトリは、1日に数回インデックスを取得します。

+0

ありがとうございますが、あなたの答えは関係ありません。 – PatlaDJ

+0

あなたが言うことは有用ですが、その質問には少し関連性があります。私はこの問題の技術面について尋ねています。私は、あなたが私に言った「もの」についてよく知っています。私はウェブサイトの重要性を評価するGoogleの方法に疑問を呈していませんが、再クロールの頻度率はこれに関連することが論理的であることを認識しています。私のウェブサイトはPR4で、1日あたり約1,000人のユニークな人間の訪問者、私とそれらの人が結合しています。私は推測することができます、それはインターネット上の多くのウェブサイトのための頻繁な状況ですか?右? – PatlaDJ

+0

Googleは毎日私のウェブサイトの約4000 thausandページをクローリングしますが、これは効率的ではありません!!!私のサイトはsmall2avarageで、単純に非効率的なので、クロールからのトラフィックが多く、私にとっては非効率的で、トラフィックとCPU消費量の観点から見ると、1日4000ページ以上のクロールが可能です。まあ...これを念頭に置いて - 再インデックス効率についての疑問は依然として残っています。もっと効率的な方法はありますか?変更されたページを再クロールするようGoogleに指示するのと同じですか?(私はそれらが何であるかを知っています)、無駄な人を再検索しないように... – PatlaDJ

関連する問題