目次
- 1 【SEO】Googleウェブマスターハングアウト(ジョン・ミューラー氏/2020年1年月31日)
- 1.1 Googleウェブマスターハングアウト
- 1.1.1 キャッシュバージョンのURLに内部的にリンクすることは推奨されません
- 1.1.2 Googleは、サイトがランキングのために持っている有効なDMCA苦情の数を考慮に入れます
- 1.1.3 GSCを使用して、移行後にサイトのURL構造にエラーがあるかどうかを特定します
- 1.1.4 Googleが継続的に別のCanonicalを選択している場合、Canonicalシグナルを確認します
- 1.1.5 Googleが古いURLを時々クロールするのは正常です
- 1.1.6 Googleが同じクエリに対して同じサイトから2つのページを表示する場合がある
- 1.1.7 より新鮮なコンテンツは、より古い常緑のコンテンツよりも常に良いとは限らない
- 1.1.8 Robots.txtファイルが短期間サーバーエラーを返す場合、Googleはサイトから何もクロールしません
- 1.1 Googleウェブマスターハングアウト
【SEO】Googleウェブマスターハングアウト(ジョン・ミューラー氏/2020年1年月31日)
2020年1年月31日のGoogleウェブマスターハングアウトです。
Googleウェブマスターハングアウト
【Google翻訳】
キャッシュバージョンのURLに内部的にリンクすることは推奨されません
URLが時間の経過とともに変化し、多くのキャッシュがrobots.txtによってブロックされる可能性があるため、内部リンクをキャッシュURLにポイントしてWebサイト構造を生成することは、一般的に悪い習慣です。 この場合、Johnは、特にクロールとインデックス作成の目的で、サイト内に内部リンクを保持することをお勧めします。
Googleは、サイトがランキングのために持っている有効なDMCA苦情の数を考慮に入れます
有効なDMCA苦情の数は、2012年のブログ投稿でGoogleによって確認されたように、サイトをランク付けするときに考慮されるものです。これらを誤って受信し、間違っているとしてフラグを立てる場合、削除する必要があり、問題は発生しません。 ただし、サイトが引き続きそれらを収集している場合、Googleシステムがこれを拾う可能性があります。
GSCを使用して、移行後にサイトのURL構造にエラーがあるかどうかを特定します
サイトの移行が完了した後、JohnはGSCを使用して、変更前と変更後のサイトのランキングとなるクエリと位置を比較することをお勧めします。 これにより、Googleが新しいURL構造を理解しているときにエラーが発生したかどうかが特定され、移行がサイトへのトラフィックに影響を与えているかどうか、およびその発生場所が特定されます。
Googleが継続的に別のCanonicalを選択している場合、Canonicalシグナルを確認します
Googleは、特定のページに設定されているものとは異なるキャノニカルを選択する場合がありますが、これはランキングの観点からは何も変わりません。 ただし、これが大規模に見られる場合は、混乱する信号をGoogleに送信しているかどうかを確認することをお勧めします。
Googleが古いURLを時々クロールするのは正常です
レンダリングプロセスのため、Googleは設定を確認するために古いURLを再クロールすることがあります。 これはログファイル内に表示される場合がありますが、正常であり、問題は発生しません。
Googleが同じクエリに対して同じサイトから2つのページを表示する場合がある
Googleがクエリの意図に確信を持てない場合、同じクエリの検索結果に同じサイトの2つの異なるページが表示される場合があります。 落ち着く前に時間とともに変動すると予想されるため、これは問題とは見なされません。 ただし、これを防ぐために、ジョンは、人々が検索する明らかに異なるファセットにページが適切にターゲットされるようにすることを推奨します。
より新鮮なコンテンツは、より古い常緑のコンテンツよりも常に良いとは限らない
Googleはページをランク付けするときに、さまざまなシグナルを使用して発行日を理解しますが、必ずしも新しいコンテンツが古いものよりも優れているとは限りません。 これは、クエリと検索の意図によって異なります。
Robots.txtファイルが短期間サーバーエラーを返す場合、Googleはサイトから何もクロールしません
robots.txtファイルが短期間サーバーエラーを返した場合、Googleがアクセスして正常に再度クロールできるようになるまで、Googleはウェブサイトから何もクロールしません。 ファイルへの到達がブロックされている期間中、すべてのURLがブロックされていると想定し、GSCでこれにフラグを立てます。 サーバーログでrobots.txtリクエストを使用して、各リクエスト中に返されたレスポンスサイズとコードを確認することで、これが発生した場所を特定できます。
SEOコンサルタントのまとめ
●有効なDMCA苦情の数はランキングに関係する
●サイト以降の際はサーチコンソールでクエリを確認しよう
●Googleが古いURLを時々クロールするのは正常で問題無い。
●必ずしも新しいコンテンツが古いものよりも優れているとは限らない。