robots.txtファイルは、第三者のインデックスコンテンツサイトのWebクローラをブロックするために使用されていることがわかりました。GitHubページでrobots.txtを使用する感覚は何ですか?
しかし、このファイルの目的は、サイトのプライベートエリアを限定することであるか、プライベートエリアを保護することです。これは、robots.txtでコンテンツを非表示にする意味で、GitHubリポジトリ?
私の質問はカスタムドメインを使用して例を拡張します。
GitHubページの中にファイルrobots.txt
を使用する動機はありますか?はい、もしくは、いいえ?なぜ?そのコンテンツを効果的に隠された滞在のための
オルタナティブ1
、その後、ウェブサイトのために支払う必要があっただろうプライベートリポジトリを取得することです。
モチベーションは他のウェブサイトと同じです。ロボットがその一部をクロールしないようにします。プライベートでもアクセスできない場合でも、プライベートでもアクセスできない場合でも、ロボットにはアクセスできません。 –