PR




【広告】おすすめのSEO会社

SEO

ページの読み込み時間とクロールの予算ランクは、2020年に最も重要なSEO指標になります

投稿日:

王道はコンテンツSEO

ページの読み込み時間とクロールの予算ランクは、2020年に最も重要なSEO指標になります

ページの読み込み時間とクロールの予算ランクは、2020年に最も重要なSEO指標になります

【Google翻訳】
ページの読み込み時間とクロールの予算ランクは、2020年に最も重要なSEO指標になります
私自身のテストに基づいて、PLTとCBRは、新しい年にWebサイトの成功または失敗を決定すると信じる技術的側面です。

Googleは、コンテンツと情報の透明性の両方、および技術的な品質の両方の観点から、ウェブサイトの所有者に独自のルールを課すことができます。 このため、私が今最も注目している技術的側面は、来年もそうする予定ですが、PLT(Page Load Time)と呼んでいるさまざまな読み込み時間のコンテキストにおけるWebサイトの速度です。

最初のバイトまでの時間(TTFB)は、要求を送信してから情報の最初のバイトが送信されるまでのサーバーの応答時間です。 サーバーの観点からWebサイトがどのように機能するかを示します(データベース接続、情報処理、データキャッシュシステム、およびDNSサーバーのパフォーマンス)。 TTFBをどのように確認しますか? 最も簡単な方法は、次のいずれかのツールを使用することです。

●Chromeブラウザーの開発者ツール
●WebPageTest
●バイトチェック

結果の解釈

100ms未満のTTFB時間は印象的な結果です。 Googleの推奨では、TTFB時間は200ミリ秒を超えてはなりません。 最初のバイトを受信するために計算された許容可能なサーバー応答時間が0.5秒を超えないことが一般的に採用されています。 この値を超えると、サーバーに問題が発生する可能性があるため、それらを修正するとWebサイトのインデックス作成が改善されます。

TTFBの改善

1.リソースを消費するデータベースクエリ(マルチレベル結合など)を担当するコードのフラグメント、またはプロセッサをロードする重いコード(カテゴリ構造などのオンザフライの複雑なツリーデータ構造の生成など)を改善して、Webサイトを分析しますキャッシュメカニズムを使用せずにビューを表示する前にサムネイル画像を準備する)。

2.コンテンツ配信ネットワーク(CDN)を使用します。これは、世界中に散在するサーバーネットワークの使用であり、CSS、JSファイル、写真などのコンテンツを、特定のWebサイトを見たい人に最も近いサーバーから提供します。 CDNのおかげで、従来のサーバーの場合のようにリソースはキューに入れられず、ほぼ並行してダウンロードされます。 CDNの実装により、TTFB時間は最大50%短縮されます。

3.共有ホスティングを使用する場合は、メモリやプロセッサーの電力などの保証されたリソースを備えたVPSサーバー、または専用サーバーへの移行を検討してください。これにより、マシン(またはVPSの場合は仮想マシン)の操作にのみ影響を与えることができます。何かがゆっくりと動作する場合、問題はサーバー側ではなく、ユーザー側にある可能性があります。

4.キャッシングシステムの実装を検討します。 WordPressの場合、選択できる多くのプラグインがありますが、その実装には問題はなく、効果はすぐに現れます。 WP Super CacheとW3 Total Cacheは、私が最も頻繁に使用するプラグインです。専用のソリューションを使用する場合は、データをファイルにダンプしたり、RAMに保存したりできる効率的なRedis、Memcache、またはAPCの実装を検討してください。

5. HTTP / 2プロトコルを有効にするか、サーバーにすでに機能がある場合はHTTP / 3を有効にします。速度という形の利点は印象的です。

DOM処理時間

DOM処理時間は、すべてのHTMLコードをダウンロードする時間です。 コードの効果が高いほど、ロードに必要なリソースが少なくなります。 ウェブサイトを検索エンジンのインデックスに保存するために必要なリソースが少ないほど、速度とユーザーの満足度が向上します。

私は、冗長なHTMLコードを排除し、Webサイトに表示される要素の生成をHTMLコードからCSSに切り替えることにより、HTMLコードの量を減らすことを好んでいます。 たとえば、疑似クラス:beforeおよび:afterを使用し、HTML( 内に保存されているもの)からSVG形式の画像を削除します。

ページのレンダリング時間

Webサイトのページレンダリング時間は、グラフィックリソースのダウンロード、およびJSコードのダウンロードと実行の影響を受けます。

リソースの縮小と圧縮は、Webサイトのレンダリング時間を短縮する基本的なアクションです。非同期の写真の読み込み、HTMLの縮小、HTML(関数本体がHTMLに直接含まれているもの)から必要に応じて非同期に読み込まれる外部JavaScriptファイルへのJavaScriptコードの移行。これらのアクティビティは、現在のサブページで必要なJavascriptまたはCSSコードのみをロードすることをお勧めします。たとえば、ユーザーが製品ページを使用している場合、ブラウザーは、バスケットまたはログインしているユーザーのパネルで使用されるJavaScriptコードを読み込む必要はありません。

より多くのリソースをロードする必要があるほど、ウェブサイトのコンテンツに関する情報のダウンロードを処理するためにGoogleボットが費やす必要がある時間は長くなります。各WebサイトのGoogle Botへのアクセスの最大数/最大期間(コンテンツのインデックス付けで終わる)があると仮定すると、その間に検索エンジンインデックスに送信できるページが少なくなります。

クロール予算ランク

最後の問題にはさらに注意が必要です。 クロールの予算は、Google Botがウェブサイトのコンテンツをインデックスに登録する方法に大きく影響します。 それがどのように機能し、クロール予算が何であるかを理解するために、CBR(クロール予算ランク)と呼ばれる概念を使用して、Webサイト構造の透明性を評価します。

Googleボットがウェブサイトで同じコンテンツの重複バージョンを検出した場合、CBRは減少します。 これは2つの方法でわかります。

1. Google Search Console

Google Search Consoleでページのインデックス作成に関連する問題を分析および評価することにより、次のようなセクションの[ステータス]> [除外]タブで増加する問題を確認できます。

ウェブサイトはスキャンされましたが、まだインデックス登録されていません
ウェブサイトにリダイレクトが含まれています
重複して、Googleはユーザーとは異なる標準的なページを選択しました
重複しています。ユーザーは正規ページをマークしていません

2.アクセスログ

これは、Google BotがWebサイトをクロールする方法に関する最適な情報源です。ログデータに基づいて、ウェブサイトの構造を理解し、内部リンクとナビゲーション要素によって作成されたアーキテクチャの弱点を特定できます。

インデックス作成の問題に影響する最も一般的なプログラミングエラーは次のとおりです。

1.作成が不十分なデータフィルタリングおよびソートメカニズムにより、数千の重複したサブページが作成される

2.ユーザーバージョンでは、レイヤー上のデータを含むポップアップが表示される「クイックビュー」リンク、および重複する製品情報を含むWebサイトを作成します。

3.終わらないページング。

4.新しいURLのリソースにリダイレクトするWebサイト上のリンク。

5.頻繁に繰り返されるリソースへのロボットのアクセスをブロックします。

6.典型的な404エラー。

ウェブサイトの「混乱」が増すとCBRが減少します。つまり、Googleボットがウェブサイトにアクセスする頻度が低くなり(頻度が低くなります)、コンテンツのインデックスが少なくなり、適切なバージョンのリソースを誤って解釈した場合、以前に検索エンジンのインデックスにあったページを削除します。

従来のクロール予算の概念は、サイトの総ページ数と比較して、Google Botが1日に平均でクロールするページ数(ログファイルによる)のアイデアを提供します。以下に2つのシナリオを示します。

1.サイトには1,000ページあり、Googleボットは毎日200ページをクロールします。それはあなたに何を伝えますか?それは否定的または肯定的な結果ですか?

2.サイトには1,000ページがあり、Googleボットは1,000ページをクロールします。あなたは幸せになるか心配するべきですか?

追加の品質指標を使用してクロール予算の概念を拡張しないと、情報はそれほど有益ではありません。 2番目のケースは、適切に最適化されたページであるか、大きな問題を示しています。 Google Botがクロールしたい50ページのみをクロールし、残り(950ページ)がジャンク/複製/シンコンテンツページであると仮定します。それから問題があります。

クロール予算ランクメトリックの定義に取り組みました。ページランクと同様に、ページランクが高いほど、発信リンクが強力になります。 CBRが大きいほど、問題は少なくなります。

CBRの数値解釈は次のとおりです。

IS –サイトマップで送信されたインデックス付きWebサイトの数(インデックス付きサイトマップ)

NIS –サイトマップで送信されたWebサイトの数(インデックスなしのサイトマップ)

IPOS –サイトマップ(サイトマップ外のインデックス付きページ)に割り当てられていないWebサイトの数

SNI –スキャンされたがまだ索引付けされていないページの数

方程式の最初の部分は、検索エンジンにインデックスを付けたいもの(サイトマップ内のウェブサイトはインデックスを付けたいものであると仮定)と現実、つまりGoogle Botが到達したものとの関係におけるウェブサイトの状態を説明します必要ない場合でもインデックスが作成されます。理想的には、IS = NISおよびIPOS = 0です。

方程式の2番目の部分では、Google Botが到達したWebサイトの数とインデックス作成の実際のカバレッジを調べます。上記のように、理想的な条件下では、SNI = 0です。

結果の値に10を掛けると、ゼロより大きく10より小さい数値が得られます。結果が0に近ければ近いほど、CBRに取り組む必要があります。

これは、私がこの1年間に扱ったプロジェクトの分析に基づいた、私自身の解釈にすぎません。この要素を改善する(CBRを増やす)ほど、可視性、位置、および最終的にWebサイトのトラフィックが改善されます。

CBRがドメイン全体のランキングに影響を与えるランキングファクターの1つであると仮定した場合、オフサイトページランクの直後にCBRを最も重要なオンサイトファクターとして設定します。 Google Botが検索エンジンインデックスにこの情報を入力する機会がない場合、人気の観点から選択されたキーワードに最適化された一意の説明は何ですか?

ユーザーの最初のコンテンツ

私たちは、ウェブサイト上のクエリとコンテンツを読んで解釈することで、もう一つの大きな革命を目の当たりにしています。歴史的に、このような画期的な変更には以下が含まれます。

数量基準–コンテンツにスペースと3つのお金のキーワードを含む1,000文字。ある瞬間まで、それは成功の保証でした、ある日、それは単に重要でなくなった。
シンコンテンツ-キーワードが詰め込まれたタグで構築されたトラフィック。一晩で、この戦略は機能しなくなり、低品質のコンテンツ(テキストミキサー)を人工的に生成しました。
コンテンツの複製-Google Botは、検索エンジンでインデックス化されたテキストがオリジナル(最初に作成)であり、コピーであることを(多かれ少なかれ)学習しました。その結果、Panda(Googleアルゴリズム)が作成されました。数か月ごとに、低品質のWebサイトをフィルタリングしてフラグを付け、ランキングと検索エンジンの位置を下げました。現在、「ライブ」モードで動作します。
ランクブレイン-機械学習を使用して、キーワードをあまり重視せず、クエリコンテキスト(クエリ履歴を含む)で検索エンジンユーザーのクエリを解釈し、よりコンテキスト固有の結果を表示するアルゴリズム。
E-A-T –コンテンツの作成者、ひいてはドメインの権限が低いため、誤解を招く、または誤解を招く可能性のあるコンテンツを削除します。これは特に医療および金融業界に影響を与えました。専門家によって作成されていないが、上記の生活圏に関する記事は、多くの損害を引き起こす可能性があります。したがって、不十分なコンテンツと品質を含むドメインとGoogleの戦い。
特定のキーワードのコンテンツを作成することの重要性は失われています。コンテンツがユーザーの意図と検索コンテキストに一致するものとして分類された場合、販売フレーズが詰め込まれた長い記事は、テーマが限定された明るい記事になりません。

BERT

BBERT(TransformersのBi-directorial Encoder Representations)は、ユーザーのニーズと意図のレベルでクエリを理解および解釈しようとするアルゴリズムです。たとえば、クエリ-有効なビザなしでどのくらい米国に滞在できますか? –出身国に応じてビザの長さに関する情報を見つけることができるWebサイトの結果(たとえば、ヨーロッパからの検索)と、ビザの有効期限が切れる人を脅かすものに関する情報、または米国での滞在を合法化します。

完全なコンテンツを作成することは可能ですか?答えは簡単です-いいえ。ただし、コンテンツを改善することはできます。

コンテンツを改善して調整するプロセスでは、ahrefs(競合分析に基づいてコンテンツのインスピレーションを構築する)、semstorm(質問などのロングテールクエリを構築してテストする)、surferseoなどのツールを使用できます(SERPの競合ページと当社のWebサイトの比較分析コンテンツ用)。これは最近、私のお気に入りのツールの1つです。

後者では、検索エンジンのトラフィックを引き出す競合ページに見られる一般的な「グッドプラクティス」を引き出すことにより、単語、複合フレーズ、HTMLタグ(例、段落、太字、ヘッダー)のレベルで比較分析を実行できます。自分自身に。

これは部分的にはコンテンツの人為的な最適化ですが、多くの場合、上記のツールで収集したデータを使用して変更したコンテンツでWebサイトのトラフィックを増やすことができました。

結論

私がいつも強調しているように、SEOに対処するための単一の方法はありません。 テストは、Webサイトのコンテンツの作成またはコンテンツ自体の両方に関する戦略が優れているかどうかを実証します。

クリスマスツリーの下で、そして新年の機会に、私はあなたに高い地位、運動と継続的な成長を変換することを望みます!

[広告]おすすめ記事

Youtubeチャンネル

記事執筆/サイト管理者

記事執筆/サイト運営者


名前:白石竜次 Shiraishi Ryuji
肩書:SEOコンサルタント
高校卒業後、調理師を経て数々の職業を経験し、その後IT企業でHTMLおよびSEO対策を学ぶ。
その経験を知識を生かしながら各企業でSEO担当者となりインハウスSEOを行う。
現在ではフリーで様々な企業のSEOコンサルティングを行っている。
2011年11月 「SEO対策<検索上位にヒットする>コレだけ!技(技術評論社)」を出版。
2014年1月「世界一わかりやすいSEO対策 最初に読む本(技術評論社)」を出版。
2014年1月「たった30分でできるSEO検索エンジン最適化(秀和システム)」を出版。
2017年 書籍「DeNAと万引きメディアの大罪(宝島社)」に寄稿。


ストアカ

白石 竜次

元お笑い芸人の初心者・中小企業向けSEOセミナー

SEOコンサルタント問い合わせ

・SEOコンサルのご依頼
・SEOや誹謗中傷対策のご相談
・講演会・セミナーのご依頼

SEOコンサルタント問い合わせ

SEO漫画「ウェブマブ!」

-SEO

Copyright© SEOコンサルタント.com-SEO最新情報サイト , 2020 All Rights Reserved.

//記事ページのみに構造化データを出力 //サムネイルを取得 //ここから構造化データの記述