すべての検索エンジンのボットが私のウェブサイトにアクセスするのを阻止しようとしています。ボットがGCloudでホストされているウェブサイトにアクセスするのを防ぐ
これらの権限はrobots.txtファイルに指定できますが、Google Cloudで編集するにはこのファイルにアクセスする場所がわかりません。
GcloudでPythonを使用してWebサーバーを開発しました。
私は次のトピックを読むことに注意してください。 http://stocksonfire.in/seo/edit-robots-txt-google-cloud-solved/ 私のリソースにはVMインスタンスが見つかりませんでした。 最初に作成する必要はありますか?
編集:これは私のrobots.txt
(PythonのAppEngineのと)
runtime: python
env: flex
entrypoint: gunicorn -b :$PORT main:app
runtime_config:
python_version: 3
handlers:
- url: /robots\.txt
static_files: robots.txt
upload: robots\.txt
サイドノート:ロボットが 'robots.txt'を使ってサイトにアクセスすることを本当に防ぐことはできません。誤っていると、そのファイルを無視することがあります。 http://www.robotstxt.org/faq/blockjustbad.htmlを参照してください。 –