目次
「Google Webmaster Conference製品サミット」ツイートまとめ
「Google Webmaster Conference Product Summit-GooglePlex」というカンファレンスのツイートまとめ記事です。
まとめ:Google Webmaster Conference製品サミット
【Google翻訳】
まとめ:Google Webmaster Conference製品サミット
Googleは、カリフォルニア州マウンテンビューで開催された最初のGoogle Webmaster Conference Product Summit-GooglePlexを開催しました。これは、これまでのほとんどのGoogle Webmaster Conferenceとは異なり、終日のイベントであり、素晴らしいものでいっぱいでした。私はお気に入りの写真をいくつか投稿し、YouTubeチャンネルで見逃したくない動画を少なくとも3つ投稿しますが、このイベントからの重要なポイントは次のとおりです。(注:上の画像は、GoogleでWebmaster Toolsを作成した個人であるVanessa Foxで撮影した写真です。現在、Keylime Toolboxを実行しています。昨日、彼女に追いつくことができました。)
まず最初に、このイベントは教育だけでなく、Google検索チームと出版社、開発者、SEOなどのコミュニティとの対話にとっても素晴らしいものであったと言わざるを得ません。前にも言ったが、これらのタイプのイベントはGoogleの関心を示している。
また、彼女のブログにはジャッキー・チュウによるイベントに関するいくつかの傑出したメモがあるので、それらもチェックしてください。
重複排除は複雑であり、Googleがこの問題を把握するのを支援できます。以下は、このカバレッジのツイートです。
■Google JohnMueller(ジョン・ミューラー)氏(@JohnMu)
「複製の問題に関する提案。」
↓
『重複排除は驚くほど複雑でクールです。 エンジニアの一人にそれについて話してもらうのはすてきでした。』Deduplication is surprisingly complicated and cool. It was neat to have one of the engineers talk about it.
— 🍌 John 🍌 (@JohnMu) November 4, 2019
Web重複排除。 面白い。 重複ページを特定してクラスタ化します。 代表者を選びます。 url、インデックス固有のページ。 代表的なページに信号を転送します。 #gwcps
Web deduplication. Interesting. Identify and cluster dup pages. Pick representative. urls, index unique pages. Forward signals to representative pages. #gwcps
— Glenn Gabe (@glenngabe) November 4, 2019
正規化:最終的なヒント:リダイレクトを使用し、正しいHTTP結果を送信し、rel canonicalを確認し、ローカライズにhreflangを使用し、ハイジャックを報告し、正規信号を明確にします。 #gwcps
Canonicalization: Final tips: Use redirects, send the right http results, check rel canonical, use hreflang for localization, report hijacking, keep canonical signals unambiguous. #gwcps
— Glenn Gabe (@glenngabe) November 4, 2019
正規化:Googleは正規を選択する必要があります。 主なことは、ハイジャックを避けることです。 WTAフォーラムを介したエスカレーション。 2番目の懸念はユーザーエクスペリエンスです。 第三に、ウェブマスターのシグナル:リダイレクト、rel canonical、サイトマップ。 #gwcps
Canonicalization: Google must pick a canonical. Main thing is to avoid hijacking. Escalations via WTA forums. Second concern is user experience. Third, webmaster signals: redirects, rel canonical, sitemaps. #gwcps
— Glenn Gabe (@glenngabe) November 4, 2019
●データの取得とクロールは興味深いものでした。
レンダリング:フェッチの問題-制限付きアクセス(robots.txt)。 制限されたクロールボリューム(サーバーに過負荷をかけたくない)。 例えば 1ページあたり50〜60フェッチ。 60〜70%のキャッシュヒット率。 1ページあたり約20フェッチ、または20X #gwcps
Rendering: Fetching Problems - Limited access (robots.txt). Limited crawl volume (don't want to overload your server). e.g. 50-60 fetches per page. 60-70% cache hit rate. About 20 fetches per page, or 20X #gwcps
— Glenn Gabe (@glenngabe) November 4, 2019
●フェッチにキャッシュに依存しないでください:
フェッチ。 コーナーがカットされます。 巧妙なキャッシュトリックに頼らないでください。 #gwcps
Fetching. Corners will be cut. Don't rely on clever caching tricks. #gwcps pic.twitter.com/3sNuH3tZSp
— Jennifer Slegg (@jenstar) November 4, 2019
●レンダリング:GoogleがJavaScriptのレンダリングに関して問題を抱えている1つの方法は、暗号通貨マイナーであると知っていましたか? 彼らが使用したものはGoogleのレンダリングエンジンをオーバーロードし、インデックス作成に影響を与えるとGoogleは言ったと思う。
FYI Cryptoマイナーはレンダリングを壊します#gcwps
FYI Crypto miners will break your rendering #gcwps pic.twitter.com/I3iNXaTPjx
— MyCool King (@iPullRank) November 4, 2019
●Robots.txtにアクセスできず、Googleはサイトをクロールしません。
robots.txtが「到達不能」である場合、サイト全体をクロールしません#gwcps
If the robots.txt is "unreachable" they won't crawl the whole site #gwcps
— MyCool King (@iPullRank) November 4, 2019
●また、Googleはrobots.txtに十分な頻度でアクセスできません。次のデータをご覧ください。
#gwcps pic.twitter.com/S1bB6obXEz
— MyCool King (@iPullRank) November 4, 2019
マジ? googlebotの4回に1回はサイトのrobots.txtにアクセスできませんか? 🤯その後、サイト全体をクロールしません!! #gwcps
Seriously? One out of four times googlebot cannot reach a site’s robots.txt? 🤯 then they won’t crawl the entire site!! #gwcps pic.twitter.com/wC49yC40zI
— Raffaele Asquer (@raffasquer) November 4, 2019
Googlebotとクロール:robots.txtの場合、Googleは200のコードが69%の時間、5%の一時的(ok)、および26%の到達不能を確認しています。 うわー、それは高いです。 #gwcps
Googlebot and Crawling: For robots.txt, Google sees 200 code 69% of time, 5% transient (ok), and 26% unreachable. Wow, that's high. #gwcps
— Glenn Gabe (@glenngabe) November 4, 2019
●GoogleのHTTPS対HTTPトラフィック:
■Google JohnMueller(ジョン・ミューラー)氏(@JohnMu)
HTTPSはここ数年で大幅に成長しましたが、まだ十分な余地があります。 安全なプロトコルを使用してください! #gwcpsHTTPS has really grown significantly in a few years, but there's still a bunch of room. Use secure protocols, folks! #gwcps pic.twitter.com/DaZDAltuZF
— 🍌 John 🍌 (@JohnMu) November 4, 2019
Googlebotのクロールの75%はHTTPSです。 #gwcps
75% of Googlebot crawling is HTTPS. #gwcps
— Jennifer Slegg (@jenstar) November 4, 2019
●絵文字は大したことで、1日あたり100万件以上の検索を取得し、絵文字のインデックスと検索のサポートを追加するのに1年かかりました。
Googleは1日に100万を超える絵文字の検索を確認しており、検索で絵文字を検索する機能を追加するのに1年かかりました。 #gwcps
Google sees over one million searches on emojis per day 🤯 and it took Google a year to add the ability to search for emojis in search. #gwcps
— Barry Schwartz (@rustybrick) November 4, 2019
●Google検索の同義語:
■Danny Sullivan(ダニーサリバン)氏(@dannysullivan)
@haahrのこのスライドは、Google検索で*正しい*類義語を理解する上でコンテキストが非常に重要である方法を示しています。 #GWCPSI love this slide from @haahr on how context is so important in Google Search figuring out the *right* synonyms. #GWCPS pic.twitter.com/oKuMNUNjS7
— Danny Sullivan (@dannysullivan) November 4, 2019
別のケーススタディ:[ニューヨークホテル]のクエリは[ヨークホテル]の良い結果を返しますか? GoogleはIRシステムに何かを組み込み、ニューヨークのホテルのみを検索した場合に「新規」を無視しました。 #gwcps
Another case study: Does a query for [new york hotels] return good results for [york hotels]? Google built something into its IR system to ignore "new" if there's a search for only york hotels. #gwcps
— Glenn Gabe (@glenngabe) November 4, 2019
●Googleは覚えている:
うわー->グーグルはURLの履歴にハングアップしていますか? すなわち。 ページには元々がらくたコンテンツがありました。 Googleは現状を判断しようとしますが、サイトやページの評判は多くの場合、過去の行動に基づいています。 #gwcpsWow -> Does google hang onto history of a URL? ie. page originally had crap content. Google tries to judge thing as they are, but reputation of a site and page is often based on historical behavior. #gwcps
— Jennifer Slegg (@jenstar) November 4, 2019
グーグルは、履歴データが重要だと言った。 😉IDK、しかし、それは心に留めておくことが非常に重要だと思う。 #gwcps
A googler said historical data matters. 😉 IDK, but I think that's super important to keep in mind. #gwcps
— Jason Dodge (@dodgejd) November 4, 2019
GoogleがURLの履歴を調べるかどうかについて、Google:現在の形式でサイト/ページを調べます。 しかし、サイトとページの評判は履歴データに基づいています。 例えば。 古いリンク、サイトについて話している人々など#gwcps
Regarding if Google looks at the history of urls, Google: We try to look at the site/page in its current form. But the reputation of site and pages is based on historical data. E.g. old links, people talking about sites, etc. #gwcps
— Glenn Gabe (@glenngabe) November 4, 2019
●Google検索が変更されるたびに、勝ち負けがあります(Googleが品質の観点から見た賛否両論の観点から)
Google ...すべての変化には勝ち負けがあります。 #gwcps
Google... every change has wins and losses. #gwcps
— Jennifer Slegg (@jenstar) November 4, 2019
●GoogleはBERTをより多く使用します(それは何を意味するのか、これは明確にされていません):
●機械学習は正規化にも使用されます。
おっと...正規化の重みは機械学習で訓練されます。 #gwcps
Whoa.... weights for canonicalization are trained with machine learning. #gwcps
— Jennifer Slegg (@jenstar) November 4, 2019
●ロード時にジャンプするページはGoogleが嫌いなものですが、ペナルティはありますか、それともGoogleのコアアップデートのページに影響しますか? 私は知らないが、これらのツイートを見ます:
飛び回るコンテンツの周りのもの、大量のポップアップ、インタースティシャル...これらは素晴らしいコンテンツ体験ではありません。 #gwcps
Things around content jumping around, tons of popups, interstitial... these are not great content experiences. #gwcps
— Jennifer Slegg (@jenstar) November 5, 2019
デビッド・ベスブリスが最近、ページ上で飛び回るという恐ろしい経験をしたというバイブを手にしています。#gwcps
I’m getting the vibe that David Besbris has recently had some terrible experiences with pages jumping around on him.. #gwcps
— Jake Bohall (@jakebohall) November 5, 2019
#gwcpsで、@ tweetbezは、ジャンプが上下するときに気に入らないと二度言いました。それに対するペナルティはありますか?
あれは。 Webページが上下にジャンプするとき。That is. When web pages jump up and down.
— Barry Schwartz (@rustybrick) November 5, 2019
これらはその日から私にとって目立ったポイントでしたが、ハッシュタグ#hashtagですべてのツイートを見ることができます。 私はいくつかのツイートや展望を見逃したと確信していますが、それは忙しい一日であり、多くが続いています。
SEOコンサルタントのまとめ
話題が逸れますが、「絵文字」って英語で「Emojis」と書くんですね(笑)