SEOコンサルタントの運営するSEO最新情報・SEOのサイトです。SEO最新情報、SEO業者の紹介など。運営者はSEOコンサルタント・白石竜次(「世界一わかりやすいSEO対策 最初に読む本(技術評論社)」他)です。お気軽にお問合せください。

SEOコンサルタント.com

robots.txtの書き方…「全URLをクロールOKにするにはどう書く?」

投稿日:

robots.txtの書き方…「全URLをクロールOKにするにはどう書く?」

robots.txtの書き方クイズ: 全URLをクロールOKにするにはどう書く?

クロールを拒否するURLがない(全URLをクロール対象とする)場合、robots.txt はどのようにすればいいのだろうか?

いくつかの正解がある。

robots.txtを設置しない

robots.txt自体をサーバーに置かない。

注意点として、robots.txtにアクセスしたときには404のステータスコードを返すこと。もし500番台のステータスコードを返し、その状態が長く続くとインデックスから消えることがある。

robots.txtに何も書かない

空っぽのrobots.txtをサーバーに置く。

命令が何も書かれていないので、検索エンジンはすべてのURLをクロールする。

Disallow: だけを記述する

次のように記述したrobots.txtをサーバーに置く。

Use-Agent: *
Disallow:

拒否するURLを何も指定していないので、検索エンジンはすべてのURLをクロールする。注意点として、Disallow: / にしては絶対にいけない。これはすべてのURLのクロールを拒否する命令になる。

Allow: / だけを記述する

次のように記述したrobots.txtをサーバーに置く。

Use-Agent: *
Allow: /

すべてのURLへのクロールを許可する内容になる。

これらのどれを採用しても構わない(ただし注意点には気を付けること)。検索エンジンの処理に差異はない。

SEOコンサルタントのまとめ

「robots.txt」についての勉強になりますね。

  • B!