Cloudflareがウェブサイトをスキャンし、AIエージェントへの対応度を教えてくれるツールを公開した。Is It Agent Readyという名前で、robots.txtのContent Signals、Markdownネゴシエーション、MCP、OAuth、Agent Skillsなどの新興規格を評価する。

このブログのスコアは100点中50点。バニラPHP、MariaDB、共有ホスティング、フレームワークゼロで。保護されたAPIなし、OAuthなし、MCP Server Cardなし。そしてこのスコアはまさに正しい数値だ。

ツールが評価する内容

テストは10の規格をチェックする。どのウェブサイトにも意味があるものもあれば、パブリックAPIを持つSaaSプラットフォーム専用のものもある。間違いは、どれが自分のケースに当てはまるか理解せずに10個すべてを実装しようとすることだ。

評価される10の規格:robots.txtのContent Signals、エージェント向けMarkdownネゴシエーション、API Catalogディスカバリー、OAuth/OIDCメタデータ、OAuth Protected Resource、MCP Server Card、Agent Skillsディスカバリー、WebMCP、Link headers RFC 8288、llms.txt。

実装したもの(とその理由)

10の規格のうち4つを実装した。AIモデルに引用されたい個人ブログにとって意味のあるものだ。

まず、llms.txt。ドメインルートにあるファイルで、AIモデルに自分が誰で、何について書いていて、どのページが重要かを伝える。数ヶ月前から設置しており、Generative Engine Optimization戦略全体の基盤だ。誰でも自分のものを作れるよう無料ジェネレーターを構築した。

次に、robots.txtのContent Signals。AIクローラーにコンテンツ使用の優先度を伝える1行。私の設定:コンテンツでモデルをトレーニングしないで、検索結果には表示して、AI回答のインプットには使って。「無料で仕事を使って訓練しろ」と「私のトピックについて質問に答えるときは引用しろ」の違いだ。

3番目、Markdown for Agents。AIエージェントがAccept: text/markdownヘッダーでページをリクエストすると、サーバーはHTMLの代わりにクリーンなMarkdownバージョンを返す。エージェントはHTMLよりMarkdownを効率的に処理する。実装はコンテンツを自動変換するPHPファイルと、ヘッダーを検出する.htaccessルールだ。

4番目、Agent Skillsディスカバリー。/.well-known/agent-skills/index.jsonにあるJSONファイルで、サイトで利用可能なツールを記述する:llms.txtジェネレーター、GEOタロット、サイトマップ、llms.txt自体。エージェントはすべてのページをナビゲートせずにサイトで何ができるかを発見できる。

実装しなかったもの(とその理由)

残りの6つの規格はブログには当てはまらない。実装するのは自転車にエアバッグをつけるようなものだ。

OAuth/OIDCディスカバリーとOAuth Protected Resourceは認証が必要な保護されたAPIを持つサイト用。ブログにはログインもプライベートAPIもない。

API Catalog(RFC 9727)はエンドポイント、ドキュメント、ヘルスステータスを持つパブリックAPIカタログを公開するためのもの。ブログにはインタラクティブツールはあるがREST APIは公開していない。

MCP Server Cardはエージェントがmcpサーバーを発見するためのドラフト規格。まだ最終化されていない。明日変わるかもしれないものを実装するのは自発的な技術的負債だ。

WebMCPはブラウザを通じてサイトのアクションをエージェントに公開するChrome実験機能。まだほぼ誰も実装していない。

Link headers(RFC 8288)はリソースディスカバリーのためのHTTPヘッダー。あれば良いがブログのAI可視性への影響はゼロ。

重要な4つの実装方法

4つの変更はすべて1時間以内に実装できる。フレームワークや外部依存関係は不要。

llms.txtは、ドメインルートに名前、説明、トピック、主要ページを記載したMarkdownファイルを作成する。無料ジェネレーターがステップバイステップでガイドする。

Content Signalsは、robots.txtに1行追加する:

Content-Signal: ai-train=no, search=yes, ai-input=yes

Markdown for Agentsは、Accept: text/markdownヘッダーを検出してコンテンツを変換して返すPHPスクリプトと.htaccessルールが必要:

RewriteCond %{HTTP_ACCEPT} text/markdown
RewriteRule ^(.*)$ markdown-negotiator.php [L,QSA]

Agent Skillsは、サイトリソースをリストするJSONファイルを作成し、/.well-known/agent-skills/index.jsonで提供する。

50/100が正しいスコアである理由

すべての規格がすべてのサイトに当てはまるわけではない。個人ブログにOAuthは不要。オンラインストアにMCPは不要。完璧なスコアは100ではない。自分のケースに意味のある最大値だ。

共有ホスティングのバニラPHPブログで50/100は、AIエージェントがコンテンツを発見し、理解し、引用するために必要なすべてを実装していることを意味する。それ以上でもそれ以下でもない。

ほとんどのブログにはllms.txtすらない。Content Signalsの存在を知らないブログがほとんどだ。エージェントが求めてもMarkdownを返さないブログがほとんどだ。ブログにこの4つがあれば、インターネット上のサイトの95%よりAIエージェントへの準備ができている。

isitagentready.comで自分のサイトをテストできる。アカウント不要。URLだけ。

次のSEOの戦場はランキングではない。引用だ。そして引用は構造から始まる。

このテーマについても書きました:Claude Codeチュートリアル:デザイナーがゼロからウェブサイトを構築した方法(2026) | Shinobis.