PR




SEOコンサルタント白石竜次の新作本

【note】SEO・初心者でも無料で検索上位表示する技2020
【SEOマニュアル】『初心者でも無料で検索上位表示できる技』【2020版】
【価格:500円】
SEOコンサルタント白石竜次の新作本。全くのSEO初心者向けの本です!「SEOってなに?」という方にお勧めします。2010年発売の著書をベースに大幅リライトで2020年版にしました。有料で申し訳ありませんが本1冊分の分量でかつ最低限のものにコンパクトにまとめました。

SEO ウェブマスターオフィスアワー

重複による自動ペナルティの対応方法

投稿日:

重複による自動ペナルティの対応方法

Googleの「ウェブマスターオフィスアワー」2019年6月19日の内容です。

質問「重複による自動ペナルティの対応方法」

現在、自動ペナルティになっており、原因を探っておりました、
そこで見つけたの重複についてです。
サーチコンソールから、記事のインデックスをお願いすると、なぜかアナリティクスの方で必ず、重複するかのように同じURLが2になります。
サイトをSSL化しているので、2になるのは当たり前のことなのでしょうか?
それとも、重複しているのでしょうか?
参考資料としては、
・301リダイレクトはしています。
・rel="canonical"は、ワードプレスの場合、ワードプレスのURLを変更すればよいと書いてあったので、設定の一般からワードプレスアドレスとサイトアドレスをHTTPsにしました。
・SSL化ではないガバレッジを見ると、未だに除外が163ついています。
(noindexタグによって除外が96、ページにリダイレクトがあるが56、クロールエラーが6、ソフト404が3、みつかりませんでした(404)が2です。)

Google金谷氏の回答

■Google金谷氏

どの項目が「2」になるのかわからなかったので何かわからないですね。
ご質問の内容が特定できなかったということなんですけど
そもそも「自動ペナルティになっており」という所がひっかかります。
「自動ペナルティ」が何を指しているのかがわからなくてですね
自動の対策に関してみなさんがわかるというのはなかなか無いと思いますのでそこについて
単純にアルゴリズム、コアアルゴリズムのアップデートで順位が下がったみたいな事に対しては
ガイドライン違反に対する自動対策とは別の話ですので、考え方を変えて頂くのがいいのかな、と。

Japanese Webmaster Office Hours(ウェブマスター オフィスアワー 2019 年 6 月 25 日)

Japanese Webmaster Office Hours(ウェブマスター オフィスアワー 2019 年 6 月 25 日)

SEOコンサルタントの感想

たしかに、「重複による自動ペナルティ」と決めつけているのが気になります。
恐らくこの質問者さんは「ウェブマスター オフィスアワー」を見て投稿するくらいですから
相当SEOが好きかよく勉強している方で、知識にも自信があるのだと思います。
ただ重複でペナルティというのはサイトをコピーでもしたのでしょうか?
でもそれとも違うようですし、類似したコンテンツがあり、順位が下がった原因と考えているのかもしれません。
ただそれはペナルティではありませんし。。

[広告]おすすめ記事

Youtubeチャンネル

記事執筆/サイト管理者

記事執筆/サイト運営者


名前:白石竜次 Shiraishi Ryuji
肩書:SEOコンサルタント
高校卒業後、調理師を経て数々の職業を経験し、その後IT企業でHTMLおよびSEO対策を学ぶ。
その経験を知識を生かしながら各企業でSEO担当者となりインハウスSEOを行う。
現在ではフリーで様々な企業のSEOコンサルティングを行っている。
2011年11月 「SEO対策<検索上位にヒットする>コレだけ!技(技術評論社)」を出版。
2014年1月「世界一わかりやすいSEO対策 最初に読む本(技術評論社)」を出版。
2014年1月「たった30分でできるSEO検索エンジン最適化(秀和システム)」を出版。
2017年 書籍「DeNAと万引きメディアの大罪(宝島社)」に寄稿。


ストアカ

白石 竜次

元お笑い芸人の初心者・中小企業向けSEOセミナー

SEOコンサルタント問い合わせ

・SEOコンサルのご依頼
・SEOや誹謗中傷対策のご相談
・講演会・セミナーのご依頼

SEOコンサルタント問い合わせ

SEO漫画「ウェブマブ!」

-SEO, ウェブマスターオフィスアワー

Copyright© SEOコンサルタント.com , 2020 All Rights Reserved.

//記事ページのみに構造化データを出力 //サムネイルを取得 //ここから構造化データの記述