PR




SEOコンサルタント白石竜次の新作本

【note】SEO・初心者でも無料で検索上位表示する技2020
【SEOマニュアル】『初心者でも無料で検索上位表示できる技』【2020版】
【価格:500円】
SEOコンサルタント白石竜次の新作本。全くのSEO初心者向けの本です!「SEOってなに?」という方にお勧めします。2010年発売の著書をベースに大幅リライトで2020年版にしました。有料で申し訳ありませんが本1冊分の分量でかつ最低限のものにコンパクトにまとめました。

SEO

Google検索のBERTアルゴリズムに関するFAQまとめ

投稿日:

seokku

Google検索のBERTアルゴリズムに関するFAQまとめ

FAQ:Google検索のBERTアルゴリズムに関するすべて

【Google翻訳】
FAQ:Google検索のBERTアルゴリズムに関するすべて
それが何であるか、どのように機能するか、そしてそれが検索にとって何を意味するか。

Googleは、最新の主要な検索更新であるBERTアルゴリズムを含めることで、ユーザーの検索クエリの意図をよりよく理解できるようになり、より関連性の高い結果が得られると述べています。 同社によると、BERTは検索の10%に影響を与えます。つまり、ブランドのオーガニックな可視性とトラフィックに何らかの影響を与える可能性が高いということです。

これは、Googleが「検索の歴史の中で最も大きな飛躍の1つ」と宣伝しているものについて、これまでに知っていることの概要です。さらに深く掘り下げる準備ができたら、コンパニオンピースをチェックしてください。 BERTの詳細:DRT AndersonによるBERTによる自然言語理解へのロケットの打ち上げ方法。

Google検索でBERTが公開されたのはいつですか?

BERTは、2019年10月21日の週に、注目のスニペットを含む英語のクエリ向けにGoogleの検索システムでの展開を開始しました。

Googleが検索を提供するすべての言語にアルゴリズムが拡張されますが、まだスケジュールは設定されていません、とGoogleのDanny Sullivan氏は述べています。 BERTモデルは、20か国で注目のスニペットを改善するためにも使用されています。

BERTとは何ですか?

BERTは、TransformersのBidirectional Encoder Representationsの略で、自然言語処理の事前トレーニングのためのニューラルネットワークベースの手法です。 平易な英語では、Googleが検索クエリ内の単語のコンテキストをよりよく識別できるようにするために使用できます。

たとえば、「nine to 5」および「a quarter to 5」というフレーズでは、「to」という言葉には2つの異なる意味がありますが、これは人間には明らかですが、検索エンジンにはあまり意味がありません。 BERTは、このようなニュアンスを区別して、より関連性の高い結果を促進するように設計されています。

Googleは2018年11月にBERTをオープンソース化しました。これは、誰でもBERTを使用して、質問応答やその他のタスクのために独自の言語処理システムをトレーニングできることを意味します。

ニューラルネットワークとは

アルゴリズムのニューラルネットワークは、非常に簡単に言えば、パターン認識用に設計されています。 画像コンテンツを分類し、手書き文字を認識し、金融市場の傾向を予測することは、クリックモデルなどの検索アプリケーションはもちろんのこと、ニューラルネットワークの一般的な実際のアプリケーションです。

彼らはパターンを認識するためにデータセットを訓練します。 Googleは、Wikipediaのプレーンテキストコーパスを使用して事前トレーニングを行ったため、Googleがオープンソース化したときに説明しました。

自然言語処理とは何ですか?

自然言語処理(NLP)は、人間が自然に通信する方法をコンピューターが理解できるようにすることを目的として、言語学を扱う人工知能の分野を指します。

NLPによって可能になった進歩の例には、ソーシャルリスニングツール、チャットボット、スマートフォンでの単語の提案などがあります。

それ自体は、NLPは検索エンジンの新しい機能ではありません。 ただし、BERTは、双方向トレーニングによるNLPの進歩を表しています(詳細は以下を参照)。

BERTの仕組み

BERTのブレークスルーは、順序付けられた一連の単語(左から右、または結合された左)での従来のトレーニング方法ではなく、文またはクエリ内の単語セット全体に基づいて言語モデルをトレーニングできることです(双方向トレーニング) -右から左)。 BERTを使用すると、言語モデルは、直前または直後の単語だけでなく、周囲の単語に基づいて単語のコンテキストを学習できます。

GoogleはBERTを「深い双方向」と呼んでいます。これは、単語のコンテキスト表現が「ディープニューラルネットワークの最下部から」始まるためです。

「たとえば、「銀行」という単語は、「銀行口座」と「川の銀行」で同じコンテキストなしの表現になります。代わりに、コンテキストモデルは、文の他の単語に基づいて各単語の表現を生成します。たとえば、「私は銀行口座にアクセスしました」という文では、単方向のコンテキストモデルは「口座」ではなく「私がアクセスした」に基づいて「銀行」を表しますが、BERTはその前後のコンテキストを使用して「銀行」を表します—「…アカウントにアクセスしました。」」

Googleは、検索でのBERTの適用が結果に与える影響の例をいくつか示しました。一例では、「大人向けの数学の練習帳」というクエリは、以前は、有機的な結果の上部にあるグレード6〜8の本のリストを表示していました。 BERTを適用すると、Googleは結果の上部に「Math for Grownups」というタイトルの本のリストを表示します。

このクエリの現在の結果では、グレード6〜8の本がまだランキングされていることがわかりますが、注目のスニペットを含め、その上位にランク付けされている成人向けの本が2つあります。

上記のような検索結果の変更は、BERTを使用したクエリの新しい理解を反映しています。 ヤングアダルトのコンテンツはペナルティを受けませんが、アダルト固有のリスティングは、検索者の意図に沿ったものと見なされます。

Googleはすべての検索の意味を理解するためにBERTを使用していますか?

556/5000
いいえ、正確ではありません。 BERTは、米国での英語の検索の10分の1についてのGoogleの理解を高めます。

「特に、より長い、より会話型のクエリ、または「for」や「to」などの前置詞が意味に重要である検索の場合、検索はクエリ内の単語のコンテキストを理解できるようになります」 。

ただし、すべてのクエリが会話型または前置詞を含むわけではありません。 ブランド検索と短いフレーズは、BERTの自然言語処理を必要としないクエリの種類のほんの2つの例です。

BERTは注目のスニペットにどのように影響しますか?

上記の例で見たように、BERTは、適用時に機能スニペットに表示される結果に影響する場合があります。

以下の別の例では、Googleは「縁石のない丘の上に駐車」というクエリのスニペットを比較し、「過去には、このようなクエリはシステムを混乱させます。「縁石」という言葉を重視しすぎました。 「no」という単語を無視しました。この単語がこのクエリに適切に応答することの重要性を理解していませんでした。 そのため、縁石のある丘に駐車した場合の結果を返します。」

BERTとRankBrainの違いは何ですか?

BERTの機能の一部は、クエリを理解するためのGoogleの最初の人工知能手法であるRankBrainに似ているように聞こえるかもしれません。ただし、検索結果を通知するために使用できる2つの別個のアルゴリズムです。

「RankBrainについて最初に理解すべきことは、通常のオーガニック検索ランキングアルゴリズムと並行して実行され、それらのアルゴリズムによって計算された結果を調整するために使用されることです」とPerficient Digitalのゼネラルマネージャー、Eric Enge氏は述べています。

RankBrainは、現在のクエリを調べ、過去の類似クエリを見つけることで結果を調整します。次に、それらの履歴クエリの検索結果のパフォーマンスを確認します。 「見たものに基づいて、RankBrainは通常のオーガニック検索ランキングアルゴリズムの結果の出力を調整する場合があります」とEnge氏は述べています。

また、RankBrainは、Googleが検索クエリを解釈し、クエリに正確な単語を含まない可能性のある結果を表示できるようにします。次の例では、「パリのランドマークの高さ」というクエリに塔の名前が表示されていないにもかかわらず、ユーザーがエッフェル塔に関する情報を探していることがわかりました。

「BERTはまったく異なる方法で動作します」とEnge氏は述べています。 「従来のアルゴリズムは、ページのコンテンツを調べて、その内容と関連性を理解しようとします。ただし、従来のNLPアルゴリズムは通常、単語の意味をよりよく理解するために、単語の前のコンテンツまたは単語の後のコンテンツのみを追加コンテキストで見ることができます。前述のように、BERTは単語の前後のコンテンツを見て、その単語の意味と関連性の理解を知らせます。 「人間のコミュニケーションは自然に階層化され、複雑になるため、これは自然言語処理の重要な機能強化です。」

Googleは、BERTとRankBrainの両方を使用してクエリとWebページコンテンツを処理し、単語の意味をよりよく理解します。

BERTはRankBrainに代わるものではありません。 Googleはクエリを理解するために複数の方法を使用する場合があります。つまり、BERTは、他のGoogleアルゴリズムと一緒に、RankBrain、それらの組み合わせ、または検索用語に応じてまったく組み合わせずに、単独で適用できます。

BERTに影響を与える可能性がある他のGoogle製品は何ですか?

GoogleのBERTに関する発表は検索のみに関連していますが、アシスタントにもある程度の影響があります。 Google Assistantで実行されたクエリがトリガーして、検索からの注目のスニペットまたはWeb結果を提供する場合、それらの結果はBERTの影響を受ける場合があります。

GoogleはSearch Engine Landに対して、BERTは現在広告に使用されていないが、将来統合される場合、広告主を悩ませる悪い類似バリアントの一部を軽減するのに役立つ可能性があると語った。

「BERT向けに最適化するにはどうすればよいですか?」それは実際に考える方法ではありません

「BERTで最適化するものは何もありませんし、誰もが再考するものもありません」とサリバンは言います。 「優れたコンテンツに報いることを目指す私たちの基本は変わりません。」
ランキングに関するGoogleのアドバイスは、常にユーザーを念頭に置き、検索意図を満たすコンテンツを作成することでした。 BERTはその意図を解釈するように設計されているため、ユーザーに必要なものを提供し続けることは引き続きGoogleのアドバイスです。
「最適化」とは、視聴者向けのコンテンツの作成と機械の直線的なフレージング構造を妥協する代わりに、優れた明確な文章に集中できることを意味します。

SEOコンサルタントのまとめ

BERTについては過去の記事でも多数記事がありますが、別のQ&Aのまとめ記事です。

[広告]おすすめ記事

記事執筆/サイト管理者

記事執筆/サイト運営者


名前:白石竜次 Shiraishi Ryuji
肩書:SEOコンサルタント
高校卒業後、調理師を経て数々の職業を経験し、その後IT企業でHTMLおよびSEO対策を学ぶ。
その経験を知識を生かしながら各企業でSEO担当者となりインハウスSEOを行う。
現在ではフリーで様々な企業のSEOコンサルティングを行っている。
2011年11月 「SEO対策<検索上位にヒットする>コレだけ!技(技術評論社)」を出版。
2014年1月「世界一わかりやすいSEO対策 最初に読む本(技術評論社)」を出版。
2014年1月「たった30分でできるSEO検索エンジン最適化(秀和システム)」を出版。
2017年 書籍「DeNAと万引きメディアの大罪(宝島社)」に寄稿。


ストアカ

白石 竜次

元お笑い芸人の初心者・中小企業向けSEOセミナー

Youtubeチャンネル

SEOコンサルタント問い合わせ

・SEOコンサルのご依頼
・SEOや誹謗中傷対策のご相談
・講演会・セミナーのご依頼

SEOコンサルタント問い合わせ

-SEO

Copyright© SEOコンサルタント.com , 2024 All Rights Reserved Powered by AFFINGER5.

//記事ページのみに構造化データを出力 //サムネイルを取得 //ここから構造化データの記述