2026年1月、Googleで何かが変わった。有名なSaaS企業がオーガニック可視性を失い始めた。5%ではない。10%でもない。数週間で29%から49%の下落。
Googleのコアアップデート回復を専門とする最も尊敬されるSEO専門家の一人、Lily Rayがパターンを記録した。影響を受けた複数のサイトを分析し、共通の分母を見つけた:企業が自社を1位にランク付けする数百の自己宣伝リスティクル。「ベストプロジェクト管理ツール」で誰が最初に表示されるか推測しよう。「中小企業向けベストCRM」で記事を書いた企業が自らを戴冠する。
この戦術は機能していた。これらの企業はGoogleのAI Overviews、ChatGPTの回答、Perplexityに表示されていた。問題は、Googleが最終的にすべてを検出することだ。そして検出した時、警告しない。ただボリュームを下げるだけだ。
誰も見たくなかった数字
80億ドルのB2B企業が1月21日から2月2日の間にオーガニック可視性の49%を失った。ブログがサイトの可視性の77%を占めていた。30,000のインデックス済み記事の中に191の自己宣伝リスティクルがあった。
SaaS企業が43%を失った。サイトの可視性の85%を占めるガイドフォルダーが崩壊した。2,780記事の中に228の自己宣伝リスティクル。
別の企業が42%を失った。チュートリアルフォルダーが2021年以来見られなかったレベルに落ちた。76の自己宣伝リスティクル、そのうち38がタイトルに「2026」を入れて更新されていた。年がまだ4週間しか経っていないのに。
パターンはさらに6つのサイトで繰り返された。すべてSaaS。すべてのブログが可視性の80%以上を占める。すべてが自社カテゴリーで最高と自称する数十または数百の記事を持っていた。
なぜこれが予測可能だったか
Googleは有用なコンテンツに関するガイドラインを何年も公開してきた。評価の質問は明確だ:コンテンツはオリジナルの調査を提供しているか?タイトルは誤解を招くことを避けているか?情報は信頼を構築する方法で提示されているか?
実際、Googleは数年前にこれを内部で認めていた。DOJ独占禁止法裁判(事件番号1:20-cv-03010-APM)の文書で、エンジニアのEric Lehmanが2016年の内部プレゼンテーションで述べた:「我々はドキュメントを理解していない。偽っている。」何年もの間、Googleはコンテンツを評価するためにユーザーのクリックに依存していた。しかしそれは変わった。現在のシステムはcontentEffort(各ページに投資された実際の人的労力のAIベース推定)とoriginalContentScore(派生的または大量生産されたコンテンツにペナルティを与える)を測定している。AIで生成された自己宣伝リスティクルは両方の指標でゼロを獲得する。Googleはもはやそれらを検出するために偽る必要がない。
それを公開する企業が自社を1位にランク付けする記事は、これらのテストのすべてに不合格だ。透明な方法論がない。代替品をテストした証拠がない。独立した評価がない。企業がGoogleとLLMに「私が最高だ、信じろ」と言っているだけだ。
罠は、それが機能していたことだ。ChatGPTには操作的なコンテンツを検出するGoogleの洗練さがない。LLMが「ベストCRM」を検索し、10社が最高だと言う10の記事を見つけると、より良いスキーマ、より良い構造、より多くのバックリンクを持つものを引用する。評価が正直かどうかを確認しない。
しかしGoogleは確認する。そしてGoogleが可視性を下げると、Googleの結果に基づくRAG(検索拡張生成)を使用するLLMも引用を停止する。コアアップデートの別の専門家であるGlenn Gabeは、オーガニック検索で下落したサイトがAI Overviewsでもプレゼンスを失ったことを確認した。
誰も聞きたくない代替案
グレーエリアの戦術の代替案はセクシーではない。ハックではない。200回複製できるテンプレートではない。インフラだ。
インフラとは、検索エンジンとAIモデルが正当な信頼シグナルとして認識するスタンダードを実装することだ。システムを操作するからではなく、コンテンツを理解するためにシステムが必要とするものを正確に提供するからだ。
これが3ヶ月でこのブログに実装したものだ:
ドメインルートのllms.txt。AIモデルに自分が誰で、何について書いていて、どのページが重要かを伝えるファイル。何も操作しない。既に存在する情報を整理するだけだ。
各投稿の自動JSON-LDナレッジグラフ。永続的な@idリファレンスで接続された5つのエンティティ:WebSite、Organization、Person、WebPage、BlogPosting。aboutでの自動トピック検出とmentionsでのツール検出。citationとrelatedLinkでの投稿関係。workTranslationでの多言語接続。ChatGPTが監査し10点中9.1と評価した。
robots.txtのContent Signals。AIクローラーに伝える1行:コンテンツでトレーニングしないで、検索結果には表示して、回答のインプットには使って。作品を無料で提供することと、使用方法のルールを設定することの違い。
Markdown for Agents。AIエージェントがAccept: text/markdownヘッダーでページをリクエストすると、サーバーはHTMLの代わりにクリーンなMarkdownを返す。エージェントはMarkdownをより効率的に処理する。
Agent Skillsディスカバリー。エージェントが自動的に発見できるようサイトで利用可能なツールを記述するJSONファイル。
これらはどれもハックではない。すべて誰でも実装できる公開された文書化されたスタンダードだ。そして自己宣伝リスティクルとは異なり、これらのスタンダードでコアアップデートでペナルティを受けることはない。
砂の上に建てることと岩の上に建てることの違い
可視性を失った企業は戦術の上に建てた。機能するものを見つけ、数百ページにスケールし、Googleが気づかないことを祈って指を組んだ。
このブログでやっていることが違うのは、より賢いからではない。GoogleとLLMが長期的に求めるものと一致するインフラを構築しているからだ:実体験に基づく具体的なコンテンツを、推論する機械のために構造化する。
書くすべての投稿にコンテンツから検出されたエンティティを持つ自動スキーマがある。すべての記事がナビゲーションリンクだけでなく、知識の関係を通じて他の記事と接続されている。構築するすべてのツールがクローラーのためだけでなく、訪問者のための本当の目的を持っている。
PHPを知らずにこれを構築した、Claudeを開発パートナーとして使って。インフラを実装するのに開発者である必要はない。機械がコンテンツを信頼するために何が必要かを理解する必要がある。
今日できること
自社が最初に表示されるリスティクルのあるブログがあるなら、まだ削除しないで。しかし、新しいものを作るのはやめよう。新しいものはそれぞれ、Googleが検出した時に可視性の40%を失うかもしれない技術的負債だ。
代わりに、インフラから始めよう。ドメインのllms.txtを作成しよう。永続的な@idリファレンスでJSON-LDを実装しよう。robots.txtにContent Signalsを追加しよう。AIモデルがプロパガンダを繰り返していると感じることなく引用できる、実体験に基づくコンテンツを書こう。
実装したGenerative Engine Optimizationの22の技術的決定は公開されている。それぞれがコード、データ、結果とともに文書化されている。
グレーエリアの戦術は機能しなくなるまで機能する。インフラに有効期限はない。