ラボまとめコラムニュース
ブログ/記事一覧/【完全ガイド】Googleコアアップデート対策。公式と噂を分けて解説
google-core-update-complete-guide-cover

【完全ガイド】Googleコアアップデート対策。公式と噂を分けて解説

Googleコアアップデートの全履歴と対策を、公式情報・業界データ・噂の3つに分けて解説。Panda(2011年)から2026年3月版まで、何が変わったのかを時系列で整理。順位が落ちたときにやるべきことも。

まとめ
kkm-horikawa

kkm

Backend Engineer / AWS / Django

2026.03.2815 min15 views
この記事のポイント

Googleコアアップデートの全履歴と対策を、公式情報・業界データ・噂の3つに分けて解説。Panda(2011年)から2026年3月版まで、何が変わったのかを時系列で整理。順位が落ちたときにやるべきことも。

今、何が起きているのか

最新のアップデート状況(2026年3月28日時点)

March 2026 Core Update ― 2026年3月27日に展開開始。最大2週間で完了予定。

March 2026 Spam Update ― 2026年3月24〜25日に展開、約19時間で完了済み。

詳細は速報記事「Googleコアアップデート、2026年3月版が開始」を参照してください。

この記事では、コアアップデートの仕組み・全履歴・対策を、情報の出どころを3つに分けて解説しています。

  • [公式]Googleが公式に言っていること ― 公式ドキュメント、Search Central、公式ブログからの引用
  • [データ]業界データ(非公式) ― Ahrefs、Semrush等のツール計測値、Search Engine Journal等の専門メディア分析
  • [噂]噂・都市伝説 ― 根拠不明の通説、因果関係が証明されていない主張

SEOの世界には公式情報と噂が混在しています。「Googleは○○を重視している」と断定する記事は多いですが、Googleが実際にそう言っているのか、業界が推測しているのか、誰かが言い始めただけなのかは、区別しないと対策の方向を間違えます。

ただし、「公式」だからといって全面的に信用できるわけではありません。2024年5月、Googleの内部APIドキュメント(14,014件のAPI属性を含む2,500ページ以上)がGitHubに流出しました。その内容は、Googleの広報担当者がこれまで公の場で否定してきたことと矛盾していました。たとえばGary Illyesは「クリックデータ(滞在時間、CTR等)はランキング要因ではない、作り話だ」と発言していましたが、流出したドキュメントにはクリックログに基づくリランキングシステム「NavBoost」の存在が記載されていました。

この記事で[公式]とラベルを付けている情報は「Googleが公の場で発表した内容」です。それが内部の実態と完全に一致している保証はありません。[公式]は「出発点」として読んでください。

コアアップデートとは何か

[公式] Googleが公式に言っていること:

"Several times a year, Google makes significant, broad changes to our search algorithms and systems."

Google Search Central

年に数回、Googleは検索アルゴリズムに大規模で広範な変更を加えます。これが「コアアップデート」です。特定のサイトやページを狙い撃ちにしたものではなく、検索結果全体の品質を改善するためのものだとGoogleは説明しています。

[噂] よくある誤解:

「コアアップデートでペナルティを受けた」という表現を見かけますが、これは正確ではありません。ペナルティ(手動対策)はSearch Consoleに通知が届く別の仕組みです。コアアップデートで順位が下がるのは、「相対的に他のページの評価が上がった結果」であり、ペナルティとは異なります。

順位が落ちたときにやること

[公式] Googleが公式に言っていること:

"Avoid doing 'quick fix' changes."

"We recommend waiting at least a full week after a core update completes."

Google Search Central

まず、慌てて記事を書き直さないでください。Googleの公式アドバイスは明確で、「ロールアウト完了後、少なくとも1週間待ってからパフォーマンスを分析すること」です。ロールアウト中の順位変動は最終結果ではありません。

やるべきことは1つだけです。Search Consoleで、アップデート開始日の前後のクリック数・表示回数・平均掲載順位を日別で記録しておくこと。ロールアウト完了後に「何が、どの方向に、どれくらい動いたか」を正確に把握するためのデータを今のうちに取っておきます。

小幅な順位変動(例えば2位から4位)の場合、Googleは「すでにうまくいっているコンテンツに変更を加えることは避けるべき」とも言っています。大幅な低下の場合は、サイト全体が「people first」なコンテンツを提供できているか自己診断します。

[噂] 噂: 「すぐにリライトすれば戻る」

根拠がありません。ロールアウト中にリライトしても、アップデートが完了するまで再評価は行われないことが多いです。むしろ、焦って内容を変えることでさらに順位が下がるリスクがあります。

過去の主要アップデートで何が変わったか

Googleのアルゴリズムは2011年から大きく変わり続けています。各アップデートには一貫した方向性があります。「ユーザーにとって価値のないものを排除する」です。何が潰され、何が上がったかを見ると、Googleが何を目指しているかがわかります。

Panda(2011年)― 薄いコンテンツの排除

Pandaが潰したのは「コンテンツファーム」です。大量の低品質記事を量産してAdSense収益を稼ぐサイトが、検索結果の上位を占めていた時代がありました。Pandaはサイト全体の品質を評価する仕組みを導入し、低品質ページが多いサイト全体の順位を下げました。英語の検索クエリの約12%に影響を与えたとGoogleは発表しています。

このアップデートで「量より質」が検索の基本ルールになりました。2016年にコアアルゴリズムに統合されています。

Penguin(2012年)― 不自然なリンクの排除

Pandaがコンテンツの質を見たのに対し、Penguinは被リンクの質を見ました。有料リンク、リンクファーム、相互リンクネットワークなど、人為的にリンクを増やす手法を使ったサイトの順位を大幅に下げました。「SEO業者にリンクを買う」というビジネスモデルはここで崩壊しました。

2016年にリアルタイムでコアアルゴリズムに統合され、現在は不自然なリンクを「ペナルティ」ではなく「無効化」する方向に変わっています。

Hummingbird(2013年)― 検索意図の理解

Hummingbirdはアルゴリズムの根本的な書き直しでした。それまでのGoogleは検索キーワードを個別の単語として処理していましたが、Hummingbirdからはフレーズ全体の意味を理解するようになりました。「東京で一番おいしいラーメン屋」と検索したとき、「東京」「おいしい」「ラーメン」をバラバラに処理するのではなく、ユーザーが「東京のラーメンランキングを知りたい」という意図を読み取るようになったということです。

Medic Update(2018年)― 健康・お金の情報に専門性を要求

2018年8月のコアアップデートは非公式に「Medic Update」と呼ばれ、YMYL(Your Money or Your Life:お金や健康に関するトピック)サイトに大きな影響を与えました。医療情報サイトでは、医師免許や専門資格を持たない執筆者による健康記事が軒並み順位を落としました。E-A-T(当時はまだ「Experience」のないE-A-T)の重要性が広く認知されるきっかけになったアップデートです。

日本ではこの頃、個人ブログの健康系記事が検索上位から大量に消えました。

BERT(2019年)― 自然言語処理の飛躍

BERT(Bidirectional Encoder Representations from Transformers)は、Googleがトランスフォーマーモデルを検索に導入したアップデートです。文中の単語をその前後の文脈とセットで理解する技術で、「to」や「for」といった前置詞の意味を正しく解釈できるようになりました。

BERTの導入時、Googleは「検索クエリの10件に1件に影響する」と発表しました。現在のGoogleの言語理解能力の基盤となった技術です。

Helpful Content Update(2022〜2023年)― 「人のためか、検索のためか」

2022年8月に初めて導入され、2023年9月に大幅に強化されたのがHelpful Content Updateです。検索エンジン向けに最適化されたコンテンツと、人間のために書かれたコンテンツを区別し、前者の評価を下げる仕組みです。

2023年9月のアップデートでは、一部のサイトがトラフィックの40〜80%を失うという壊滅的な影響を受けました。回復には3〜12カ月かかるケースが多く、低品質コンテンツの大量削除と残ったコンテンツの品質改善が必要とされています。

このアップデートの最大の特徴はサイト全体を評価する「サイトワイドシグナル」です。1つの低品質ページではなく、サイト全体に低品質コンテンツが多いと判断されると、高品質なページの順位まで連動して下がります。Pandaの思想を現代版にしたものと言えます。

March 2024 Core Update ― 低品質コンテンツ40%削減宣言

2024年3月のコアアップデートは、Googleが「検索結果に表示される低品質・独自性のないコンテンツを40%削減する」と公式に目標数値を掲げた異例のアップデートでした。展開に45日間を要し、Google史上最も長いロールアウトの1つとなりました。

同時に3つの新しいスパムポリシーが導入されました:

  • Scaled Content Abuse: AIを使って大量のページを自動生成する手法(ただしAI使用自体はスパムではない。「大量生成の目的が検索操作なら」スパム)
  • Site Reputation Abuse: 権威あるドメインに低品質な第三者コンテンツを寄生させる手法(例: 大手メディアのサブドメインで無関係なアフィリエイト記事を掲載)
  • Expired Domain Abuse: 期限切れドメインを買い取り、旧サイトの権威を利用してスパムコンテンツを掲載する手法

コアアップデート全履歴(2024〜2026年)

アップデート開始日完了日日数
March 2026 Core2026-03-27展開中
March 2026 Spam2026-03-242026-03-251日
Feb 2026 Discover Core2026-02-052026-02-2419日
Dec 2025 Core2025-12-112025-12-2918日
Aug 2025 Spam2025-08-262025-09-2126日
June 2025 Core2025-06-302025-07-1717日
March 2025 Core2025-03-132025-03-2714日
Dec 2024 Core2024-12-122024-12-186日
Nov 2024 Core2024-11-112024-12-0524日
Aug 2024 Core2024-08-152024-09-0319日
March 2024 Core2024-03-052024-04-1945日

E-E-A-Tとは何か。Googleは何を見ているのか

[公式] Googleが公式に言っていること:

E-E-A-Tは Experience(経験)、Expertise(専門性)、Authoritativeness(権威性)、Trustworthiness(信頼性)の略です。Google公式ドキュメントによると、このうち「信頼性(Trustworthiness)が最も重要」であり、他の3要素はそれに貢献する位置づけです。

重要なのは、Googleは「E-E-A-Tは直接的なランキング要因ではない」と明言していることです。E-E-A-Tは品質評価ガイドラインで使われる概念であり、アルゴリズムに「E-E-A-Tスコア」のような数値が組み込まれているわけではありません。E-E-A-Tを示す要因を組み合わせることで、結果的にE-E-A-Tが高いと評価されるページが上位に来る、という仕組みです。

[公式] AI生成コンテンツについての公式見解:

AI使用自体はスパムではありません。ただし、「検索ランキングを操作する主目的でAI生成を使用する場合はスパム方針違反」とGoogleは述べています。AIで書いた記事を公開すること自体に問題はありませんが、大量生成して検索結果を埋めようとすれば、それはScaled Content Abuseとして扱われます。

よく言われるSEOの「常識」は本当か

SEO業界には「こうすれば順位が上がる」というテクニックが無数に出回っています。そのほとんどは根拠が曖昧か、一時的にしか効かないものです。Pandaからの15年間を振り返ればわかりますが、Googleは小手先のテクニックを毎回潰してきました。

一方で、Google公式の発言を鵜呑みにしない人も少なくありません。前述のAPI流出事件で「公式発言と内部の実態が食い違っていた」ことが明らかになったからです。「Googleの中の人が言ったこと」と「Googleが実際にやっていること」は、必ずしも同じではない。これは事実として認めるしかありません。

それでも、Pandaから2024年のHCUまでのアルゴリズムの変遷を追えば、方向性は一貫しています。ユーザーにとって本当に価値のあるページを上位に出す。発言の真偽はさておき、Googleがやってきたことを見れば、この方向に賭けるのが最も合理的です。

以下は、マーケターやSEOコンサルタントがよく言うことと、確認できている事実の対比です。「正解」ではなく「現時点でわかっていること」として読んでください。

「著者プロフィールや構造化データを入れればE-E-A-T対策になる」

[公式で否定]

GoogleのDanny Sullivanは「Schema.orgの構造化データはランキングとは無関係」と明言しています。John Muellerも「構造化データの使用による汎用的なランキングブーストはない」と述べています

ただし、この発言を曲解して「構造化データ自体が不要」という都市伝説も生まれています。「構造化データがあるだけで5位が3位になる」という話ではない、というのが正確な意味です。構造化データによってリッチリザルト(検索結果での星評価やFAQ展開など)が表示されれば、ユーザーはページを開く前に自分の求める情報とのマッチ度を判断でき、本当に必要としている人がクリックする確率が上がります。その結果としてランキングに良い影響が出る可能性はあります。「直接のランキング要因ではない」と「意味がない」はまったく違う話です。

「更新頻度が高いほうが有利」

[公式の直接的な言及なし]

「更新頻度がランキング要因である」というGoogleの公式発表は確認できていません。Googleはコンテンツの「鮮度(freshness)」を評価していますが、これは更新頻度ではなく、「そのトピックに新しい情報が必要かどうか」を判断する仕組みです。日付だけ変えて中身を変えない「偽の鮮度」はむしろペナルティの対象になりえます。更新頻度が高いサイトが上位にいるように見えるのは、質の高いコンテンツを継続的に出しているからであって、頻度そのものが原因とは言い切れません。

「文字数が多いほうが上位に来る」

[データ上の相関あり、公式は否定]

Backlinkoの調査(約1200万件の検索結果を分析)では、上位表示されているページの平均文字数が多い傾向が確認されています。ただしGoogleのJohn Muellerは「文字数はランキング要因ではない」と繰り返し述べています。相関が見られるのは、「トピックを十分にカバーするには自然と文字数が増える」からであり、文字数を増やすこと自体が順位を上げるわけではありません。

「被リンクは死んだ」

[公式とデータで状況が割れている]

GoogleのGary Illyesは2023年のPubconで「リンクはトップ3のランキング要因ではなくなった」と発言し、2024年4月には「ページをランク付けするのにリンクはほとんど必要ない」とも述べています。一方、Backlinkoの調査では1位のページは2〜10位のページに比べて3.8倍の被リンクを持っているというデータもあります。「死んだ」は誇張ですが、「以前ほど重要ではなくなった」はGoogle自身が認めていることです。正確なところは誰にもわかりません。

「Core Web Vitalsを完璧にすれば順位が上がる」

[公式/データ] ランキング要因だが、コンテンツの質ほど重要ではない。

Googleは公式にCore Web Vitals(LCP、INP、CLS)をランキングシグナルに使用していると認めています。しかし、「ページエクスペリエンスが優れていても、コンテンツの関連性が低ければ上位表示はされない」とも述べています。表示速度の改善は確実にユーザー体験を良くしますが、順位を上げるための「テクニック」としてやるなら、コンテンツの改善に時間を使ったほうが効果的です。

「ページ数が多いほうが有利」

[公式の直接的な言及なし]

「ページ数が多いサイトのほうが上位に来る」という主張と、逆に「低品質ページを削除してページ数を減らしたら順位が回復した」という報告の両方が出回っています。Googleはページ数自体をランキング要因にしているとは言っていません。Helpful Content Updateで導入された「サイトワイドシグナル」は、サイト全体に低品質コンテンツが多い場合に高品質ページの順位まで引き下げる仕組みです。つまり「ページ数」ではなく「品質の比率」が問題です。低品質なページを量産すればサイト全体の評価が下がり、逆にそれらを削除すれば比率が改善して回復する、という構造です。

「セマンティックHTMLはSEOに意味がない」

[公式の直接的な否定あり]

GoogleのJohn Muellerは「セマンティックHTMLはGoogleがページの構造を理解するのに役立つ」と述べています。`<article>`、`<nav>`、`<main>`、`<aside>`などのHTML5セマンティック要素や、正しい見出し階層(h1→h2→h3)は、Googleがコンテンツの構造を正しく理解するためのシグナルです。「直接のランキングブーストにはならない」としても、Googleがページの主要コンテンツと補助的な要素を区別できるようになるため、正しいコンテンツが正しいクエリに表示される精度が上がります。

過去に流行って潰されたSEO手法

Googleのアルゴリズムの歴史は「流行った手法が潰される」の繰り返しです。以下は実際に大規模な影響があった手法と、それぞれがどう対処されたかの記録です。

キーワードスタッフィング(詰め込み)

流行った時期: 2000年代〜2011年

手法: ページ内にターゲットキーワードを不自然なほど大量に繰り返す。白文字で背景に隠す、alt属性に詰め込む、フッターにキーワードを羅列する等。

潰された経緯: Panda(2011年)で低品質コンテンツとして評価対象に。現在はGoogleの自然言語処理が文脈を理解するため、キーワードの出現回数はランキングにほぼ影響しないとされています。

現在: Googleのスパムポリシーで明確に禁止。手動対策の対象。

有料リンク・リンクファーム

流行った時期: 2000年代〜2012年

手法: SEO業者からリンクを購入する、相互リンクネットワークに参加する、リンクファーム(リンクを売るためだけに存在するサイト群)を利用する。当時は「被リンクの数が多い=権威がある」とアルゴリズムが判断していたため、リンク売買が一大ビジネスに。

潰された経緯: Penguin(2012年)が不自然なリンクプロファイルを持つサイトの順位を大幅に下げた。2016年にリアルタイム化され、不自然なリンクは「ペナルティ」ではなく「無効化」(なかったことにする)方向に変化。

現在: 有料リンクはスパムポリシー違反。ただし検出を逃れる手法も進化しており、完全には根絶されていません。

クローキング(検索エンジンとユーザーに別の内容を見せる)

流行った時期: 2000年代

手法: Googlebotには最適化されたテキストを、ユーザーには別のページを表示する。ドアウェイページ(特定キーワードで上位表示させ、別ページにリダイレクトするページ)も同類。

有名な事例: 2006年、BMW Germanyの公式サイトがドアウェイページの使用でGoogleからインデックス削除された。BMW側が公式に謝罪して復帰。

現在: スパムポリシーで明確に禁止。検出技術も進化しており、発覚すればインデックスから完全に除外されます。

PBN(プライベートブログネットワーク)

流行った時期: 2010年代前半〜中頃

手法: 期限切れドメインを大量に取得し、それぞれにサイトを立ち上げ、メインサイトへのリンクを設置する。ドメインの過去の権威を利用してリンクの価値をかさ上げする手法。

潰された経緯: 2014年、当時のWebスパムチーム責任者Matt Cuttsの指揮で大規模な手動対策が実施。PBNに関連するサイトが一斉にインデックスから除外され、一部のサイト運営者は週末の間にトラフィックの90%を失いました。2022年のLink Spam UpdateではAIベースのSpamBrainがPBNリンクの検出精度をさらに向上。

現在: 完全に根絶はされていませんが、検出リスクが極めて高く、発覚時のダメージも大きいためリスクに見合わないとされています。

寄生SEO(パラサイトSEO)/ ドメイン貸し

流行った時期: 2020年代前半

手法: 大手メディアやニュースサイトのサブディレクトリやサブドメインを借り、そのドメインの権威を利用してアフィリエイト記事やクーポンサイトを上位表示させる。「ドメイン貸し」「サブディレクトリ貸し」とも呼ばれます。日本でも大手新聞社のドメイン配下に無関係な比較サイトが置かれる事例がありました。

潰された経緯: 2024年3月のCore Updateで「Site Reputation Abuse」として正式にスパムポリシーに追加。一部のパラサイトページはオーガニックトラフィックの96%を失いました

現在: Googleが手動対策と自動検出の両方で対処中。大手メディアがサブディレクトリを第三者に貸すビジネスモデル自体が崩壊しつつあります。

期限切れドメインの悪用

流行った時期: 2010年代〜2024年

手法: 権威のある期限切れドメイン(大学、政府機関、有名サイト等)を取得し、まったく無関係なコンテンツ(アフィリエイト、スパム等)を設置。旧サイトの被リンクと権威をそのまま引き継いで上位表示を狙う。

潰された経緯: 2024年3月のCore Updateで「Expired Domain Abuse」としてスパムポリシーに明記。

現在: 期限切れドメインの購入自体は合法ですが、前の所有者のコンテンツと無関係な用途に使えば、ドメインの権威がリセットされるリスクがあります。

大量ゲストポスト

流行った時期: 2012年〜2020年代

手法: 他サイトにゲスト記事を大量に寄稿し、著者プロフィールや本文中にリンクを設置する。Penguin後にリンクファームが使えなくなったため、代替手法として普及。

潰された経緯: 2014年にMatt Cuttsが「大量のゲストポストによるリンク構築は避けるべき」と警告。Helpful Content UpdateとLink Spam Updateでさらに精度が上がり、テンプレート的なゲストポストからのリンクは無効化される傾向に。

現在: 少数の高品質なゲスト寄稿は問題ありません。問題なのは「リンクを得るために書く」大量生産型のゲストポストです。

AI大量生成コンテンツ

流行った時期: 2023年〜現在

手法: ChatGPT等のLLMを使って数百〜数万ページを自動生成し、ロングテールキーワードで大量にインデックスさせる。AI自体の使用は禁止されていませんが、「検索結果を操作する目的での大量生成」がスパムとされています。

潰された経緯: 2024年3月のCore Updateで「Scaled Content Abuse」がスパムポリシーに追加。Googleは「低品質・独自性のないコンテンツを40%削減する」と宣言し、45日間のロールアウトで対処。

現在: AIで書くこと自体はペナルティではありません。ただし、人間による編集・ファクトチェック・独自の視点がないまま大量に公開すれば、Scaled Content Abuseとして扱われるリスクがあります。

筆者がこのサイトでやっていること

このサイト(kkm-mako.com)はWordPressではなく、Wagtail(Django製CMS)をAWS上に構築しています。エンジニアとしてインフラからフロントエンドまで自分で組んでいるので、一般的なブログ運営者が気にしないレベルの技術的な最適化もやっています。

具体的には、画像はすべてAVIF形式で配信し、Schema.org構造化データをNewsArticle・FAQPage・BreadcrumbListで設定し、HTMLは不要な空白を除去して圧縮しています。CDNのキャッシュ戦略で静的アセットと動的ページを分離し、表示速度を最適化しています。IndexNowも導入済みで、記事公開から数分でBingにインデックスされます。

ただし、正直に言えば、これらの技術的な対策がコアアップデートで順位を上げているかは証明できません。技術的なSEOは「減点されない」ための施策であり、「加点される」のは結局コンテンツの中身だと感じています。

ソフトウェアエンジニアとしてGoogleの発言を読むと

私はソフトウェアエンジニアとしてテック企業の開発文化の中にいる人間です。その視点でGoogleの公式発言を読むと、額面通りに受け取る人や完全に無視する人とは違う読み方をしています。

この記事で取り上げた「噂」について、Googleの設計思想を踏まえてどう読めるかを書いてみます。正解ではなく、エンジニアの視点からの解釈です。

「構造化データはランキング要因ではない」をどう読むか

「じゃあ不要だ」と判断する人がいますが、Googleの上位の設計思想は「ユーザーにとって最も価値のあるコンテンツを上位に表示する」です。構造化データがあればリッチリザルトが表示され、ユーザーはページを開く前に中身を推測できます。自分が求めている情報だと判断した人がクリックする。興味のない人はスルーする。結果として「ページを開いた人の満足度」は上がります。

それがランキングに間接的に影響するかどうかは証明できませんが、Googleの設計思想と矛盾していません。このサイトで構造化データを積極的に使っているのは、そういう読みからです。

「更新頻度はランキング要因ではない」をどう読むか

「頻度を上げても無意味」ではなく、「頻度そのものではなく、更新によってコンテンツの質が上がるかどうかが問われている」と読めます。日付だけ変えて中身を変えない手法をGoogleがわざわざ検出する仕組みを作っていることからも、見ているのは「更新された」という事実ではなく「更新によってユーザーにとっての価値が増えたか」です。

このサイトのエバーグリーン記事に更新履歴セクションを付けているのは、頻度のためではなく、読者が「この情報はいつ時点のものか」を判断できるようにするためです。

「被リンクはトップ3ではない」をどう読むか

「リンクが無意味になった」ではなく、「コンテンツの質やユーザー体験のシグナルがリンクより上位に来た」と読めます。Gary Illyesが「リンクなしで1位を取っているサイトがある」と言ったのは、コンテンツの質だけで十分な場合があるという意味であり、リンクのシグナルを廃止したという意味ではないでしょう。

良い記事を書いて、それを誰かが紹介してくれた結果のリンクは、「このページは他の人にとっても価値がある」というシグナルそのものです。それを検索エンジンが無視する理由がありません。

「文字数はランキング要因ではない」をどう読むか

文字数そのものを数えているのではなく、「トピックが十分にカバーされているか」を見ているのだと思います。3000文字で十分に説明できるトピックを1万文字に引き伸ばしても、読者は途中で離脱します。逆に、3000文字では説明しきれないトピックを3000文字で書けば、読者の疑問は解決しません。

「必要な文字数はトピックが決める」というのがエンジニア的な読みです。

「Core Web Vitalsだけでは順位は上がらない」をどう読むか

表示速度の改善は「ユーザー体験の改善」であり、「SEOテクニック」ではありません。ページが3秒で表示されるのと0.5秒で表示されるのとでは、ユーザーの離脱率が変わります。Googleがこれをランキングに反映するのは、速いページを優遇したいからではなく、ユーザーが実際に満足するページを上位に出したいからです。

技術的な最適化をSEOテクニックとして捉えるのではなく、「読者が快適にページを読める環境を整える」と捉えたほうが、やるべきことが明確になります。

「ページ数は多いほうがいい / 少ないほうがいい」をどう読むか

どちらも正確ではありません。Googleが見ているのは「ページ数」ではなく「品質の比率」です。Helpful Content Updateのサイトワイドシグナルを設計思想から読めば、「サイト内の低品質ページの割合が高いと、高品質ページまで巻き込まれる」という仕組みです。

つまり、質の高いページを増やせばサイト全体の評価は上がりますし、質の低いページを削除しても比率が改善して同じ効果が出ます。「ページ数を増やす」「ページ数を減らす」は手段であって、目的は「品質の比率を上げる」です。

このサイトでは、ニュース速報も含めて全記事を一次ソースのクロスチェック付きで書いているので、ページ数を気にしたことはありません。1記事1記事を「検索で来た人の疑問を解決するか」だけで判断しています。

「セマンティックHTMLはSEOに意味がない」をどう読むか

これはソフトウェアエンジニアとして明確に反対意見があります。セマンティックHTMLは「Googleのために書く」ものではなく、「ページの構造を機械が正しく理解できるようにする」ための標準仕様です。

Googleのクローラーがページを解析するとき、<main>の中が主要コンテンツで<aside>はサイドバーで<nav>はナビゲーションだと伝えることで、「このページのメインの情報は何か」を正確に伝えられます。全部<div>で書いても表示は同じですが、機械にとっての読みやすさがまったく違います。

「ランキングブーストにはならない」としても、正しいコンテンツが正しいクエリにマッチする精度が上がります。ソフトウェアの世界では、仕様通りに実装することで恩恵を受けるのは当然の話で、「直接順位が上がらないからやらない」というのは、エンジニア的には不自然な判断です。

Googleの中の人の発言が100%正直ではないことは、API流出事件が証明しました。でもGoogleがやっていることを15年分並べれば、方向性は一貫しています。ソフトウェアの世界は意外と美学で動いていて、「ユーザーにとって良いものが勝つ」という原則は、少なくともGoogleの検索チームに関しては守られてきたと私は思っています。正しいかどうかはわかりません。でも、この方向に賭けて裏切られたことは今のところありません。

WordPressでもできること

WordPressを使っている方でも、AVIF画像の配信はプラグイン(ShortPixelやImagify等)で対応できますし、Schema構造化データもYoast SEOやRank Mathが自動生成してくれます。インフラまで自分で組む必要はありません。重要なのは、自分のサイトの表示速度をPageSpeed InsightsやSearch Consoleで定期的に確認し、明らかに遅い箇所があれば直す、という習慣です。

参照元

更新履歴

  • 2026年3月28日 ― 初版公開