【SEO】Googleウェブマスターハングアウト(ジョン・ミューラー氏/201912月13日)
2019年12月13日のGoogleウェブマスターハングアウトです。
Googleウェブマスターハングアウト
【Google翻訳】
サブドメインには個別のRobots.txtを含める必要があります
Robots.txtはホスト名とプロトコルごとです。 ページに別のサブドメインまたはドメインのコンテンツが含まれている場合、Googleはプライマリコンテンツのメインドメインのrobots.txtを尊重します。 埋め込みコンテンツの場合、Googleはそれが由来するドメインまたはサブドメインのrobots.txtを調べ、それを尊重します。
Robots.txtが一時的に503の場合、Googleはホスト名からURLをクロールしない
Googleがrobots.txtファイルのクロール中に503を検出した場合、そのホスト名のURLは一時的にクロールされません。
GoogleはRobots.txtを永続的に503 ‘としてエラーとして扱い、最終的にサイトを通常どおりクロールします
robots.txtが503を長期間返した場合、Googleはこれを永続的なエラーとして扱い、サイトを通常どおりクロールして、発見できるものを確認します。
URL検査ツールがリダイレクトをサイレントに処理してターゲットページを表示する
URLインスペクションツールは通常、入力されたURLではなく、Googleがインデックスを作成するコンテンツを表示します。 リダイレクトがある場合、これはサイレントに処理され、代わりにターゲットページが表示されます。
URL削除ツールは、GoogleによるCanonical URLまたはVisible URLの選択に影響しません
URL削除ツールは、Googleの標準URLまたは表示URLの選択に影響を与えません。単に検索中のページを非表示にします。
クローラーを使用して、移行後にリダイレクトURLへの内部リンクを検出する
DeepCrawlなどのクローラーを使用して、移行後にリダイレクトURLを指す内部リンクを検出します。
Googleは、エスケープされたバージョンとエスケープされていないバージョンのURLとリンクを同等のものとして扱います
URLとリンクのエスケープされたバージョンは、Googleによるエスケープされていないバージョンとまったく同じように扱われます。
SERPで表示するために、AMPページと通常ページの両方に構造化マークアップを含める
構造化マークアップは、AMPと検索で表示されるページの通常バージョンの両方に含める必要があります。 記事のマークアップ。
Googleの検索エンジニアが個々のクエリをデバッグしてランキングを理解できる
Google検索エンジニアは、個々のクエリをデバッグし、ページが現在のようにランキングされている理由を理解できます。
SEOコンサルタントのまとめ
Robotsと503の話題中心。
●robots.txtファイルのクロール中に503を検出した場合そのホスト名のURLは一時的にクロールされない
●Robots.txtを永続的に503エラーとして扱い最終的にサイトを通常どおりクロールする
●URL検査ツールはリダイレクトをサイレントに処理してターゲットページを表示する
●URL削除ツールは、Googleの標準URLの選択に影響を与えず単に検索中のページを非表示にする
●エスケープされたバージョンとエスケープされていないバージョンのURLとリンクを同等に扱う
●AMPと検索で表示されるページの通常バージョンの両方に含める必要がある
●Googleの検索エンジニアが個々のクエリをデバッグしてランキングを理解できる