Google の John Mueller による 404ing または URL パラメータでの Rel Canonical の使用について
John Mueller Of Google On 404ing or Using Rel Canonical On URL Parameters[Search Engine Roundtable]
【Google翻訳】
URL の末尾にある UTM などの URL パラメータが原因で重複して表示される可能性のある URL をどうするかについて、Google の John Mueller からの興味深い回答があります。 John は、これらの URL を絶対に 404 にしないでくださいと言いました。 しかし、彼は rel=canonical を使用できるとも言いました。 キッカーは、SEOにとってどちらの方法でもおそらく問題にならないだろうと彼が言ったことです.さて、Reddit で John の回答を数回読まなければなりませんでしたが、最後の部分を間違って解釈している可能性があるので、ここで助けてください。
質問は次のとおりです。
こんにちは! コミュニティは初めてですが、SEO には約 5 年間携わっています。 唯一のSEOマネージャーとして新しい仕事を始め、クロールバジェットについて考えています. クロールされてインデックスに登録された 2,000 個の URL と比較して、クロールされてインデックスに登録されていない URL は最大 20,000 個あります。これはエラーによるものではなく、UTM/キャンペーン固有の URL と (意図的に) 404 されたページの数が多いためです。
このクロール バジェットのバランスを少しとって、UTM/キャンペーン URL が robots.txt を介してクロールされないようにし、404 の一部を 410 に変えることを望んでいました (サイト全体の健全性にも役立ちます)。これが良いアイデアであるかどうか、または害を及ぼす可能性があるかどうかを判断するのを手伝ってくれる人はいますか?
存在しないページは 404 を返す必要があります。それらを 410 にすることで SEO 的には何も得られません。私が従うことができると聞いた唯一の理由は、偶発的な 404 と既知の削除されたページを認識しやすくするためです。 410年代。 (IMO 重要なページが誤って 404 になった場合、結果コードに関係なくすぐに気付くでしょう)
UTM パラメータについては、rel-canonical を設定してそのままにしておきます。 rel カノニカルはそれらをすべて消すわけではありません (robots.txt もそうではありません) が、ブロックするよりもクリーンなアプローチです (本質的に、rel カノニカルが作成されたのはそのためです)。
さて、これまでのところ、この状況では 404 を使用せずに rel=canonical を使用してください - 了解しました。次に、ジョンは SEO について説明しましたが、それはおそらく問題ではないでしょうか?
これらの両方について、サイトの検索結果に目に見える変化は見られないと思います (ハイテク SEO 愛好家には申し訳ありませんが)。 UTM URL の rel-canonical は、それらを独自に蓄積してバブルアウトさせるよりも確かにクリーンなソリューションです。 それを早期に修正するということは、「重複コンテンツの問題」を通知する 10 世代の SEO が得られないことを意味します (インデックスに登録されていない場合でも問題にはなりません。また、インデックスに登録された場合でも削除されます)。 とにかく重複として)、それはあなたの将来の時間の使い方への良い投資だと思います:-)
したがって、Google は重複した URL や UTM パラメータをインデックスに登録したとしても処理する可能性があります。 しかし、SEO コンサルタントを満足させるには、rel=canonical? を使用します。 それは彼がここで言っていることですか? それが彼のメッセージなら、私はその反応が好きですが、多分私はそれを間違っていましたか?
SEOコンサルタントのまとめ
■Google ジョン・ミューラー氏
存在しないページは 404 を返す必要があります。それらを 410 にすることで SEO 的には何も得られません。私が従うことができると聞いた唯一の理由は、偶発的な 404 と既知の削除されたページを認識しやすくするためです。