Cloudflare acaba de lanzar una herramienta que escanea tu sitio web y te dice qué tan preparado está para agentes de IA. Se llama Is It Agent Ready y evalúa estándares emergentes como robots.txt con Content Signals, negociación de Markdown, MCP, OAuth, Agent Skills y más.

Mi blog sacó 50 sobre 100. Con PHP vanilla, MariaDB, hosting compartido y cero frameworks. Sin APIs protegidas, sin OAuth, sin MCP Server Card. Y ese puntaje es exactamente el que debería tener.

Qué evalúa la herramienta

El test revisa 10 estándares. Algunos tienen sentido para cualquier sitio web. Otros son exclusivos de plataformas SaaS con APIs públicas. El error sería intentar implementar los 10 sin entender cuáles aplican a tu caso.

Los 10 estándares que evalúa son: Content Signals en robots.txt, negociación de Markdown para agentes, descubrimiento de API Catalog, metadatos OAuth/OIDC, OAuth Protected Resource, MCP Server Card, Agent Skills discovery, WebMCP, Link headers RFC 8288, y llms.txt.

Lo que implementé (y por qué)

De los 10 estándares, implementé 4. Son los que tienen sentido para un blog personal que quiere ser citado por IAs.

Primero, llms.txt. Un archivo en la raíz del dominio que le dice a los modelos de IA quién soy, de qué escribo y cuáles son mis páginas importantes. Lo tengo desde hace meses y es la base de toda mi estrategia de Generative Engine Optimization. Construí un generador gratuito para que cualquiera pueda crear el suyo.

Segundo, Content Signals en robots.txt. Una línea que le dice a los crawlers de IA mis preferencias de uso de contenido. La mía dice: no entrenes modelos con mi contenido, sí muéstralo en búsquedas, sí úsalo como input para respuestas. Es la diferencia entre "entrena con mi trabajo gratis" y "cítame cuando respondas preguntas sobre mis temas".

Tercero, Markdown for Agents. Cuando un agente de IA pide una página con el header Accept: text/markdown, mi servidor le devuelve una versión en Markdown limpio en vez de HTML. Los agentes procesan Markdown más eficientemente que HTML. La implementación fue un archivo PHP que convierte el contenido del post automáticamente y una regla en .htaccess que detecta el header.

Cuarto, Agent Skills discovery. Un archivo JSON en /.well-known/agent-skills/index.json que describe las herramientas disponibles en mi sitio: el generador de llms.txt, el GEO Tarot, el sitemap y el propio llms.txt. Los agentes pueden descubrir qué pueden hacer en tu sitio sin navegar cada página.

Lo que no implementé (y por qué)

Los otros 6 estándares no aplican para un blog. Implementarlos sería como ponerle airbags a una bicicleta.

OAuth/OIDC discovery y OAuth Protected Resource son para sitios con APIs protegidas que requieren autenticación. Mi blog no tiene login ni APIs privadas. No hay nada que proteger con tokens.

API Catalog (RFC 9727) es para publicar un catálogo de APIs públicas con endpoints, documentación y estados de salud. Mi blog tiene herramientas interactivas pero no expone APIs REST.

MCP Server Card es un estándar en borrador para que agentes descubran servidores MCP. Ni siquiera está finalizado. Implementar algo que puede cambiar mañana es deuda técnica voluntaria.

WebMCP es experimental de Chrome para exponer acciones del sitio a agentes a través del navegador. Casi nadie lo implementa todavía.

Link headers (RFC 8288) son headers HTTP para descubrimiento de recursos. Nice to have pero impacto cero en la visibilidad de un blog para IAs.

Cómo implementar los 4 que sí importan

Los cuatro cambios se implementan en menos de una hora. No necesitas frameworks ni dependencias externas.

Para llms.txt, crea un archivo Markdown en la raíz de tu dominio con tu nombre, descripción, temas y páginas clave. Mi generador gratuito te guía paso a paso.

Para Content Signals, agrega una línea a tu robots.txt:

Content-Signal: ai-train=no, search=yes, ai-input=yes

Para Markdown for Agents, necesitas un script PHP que detecte el header Accept: text/markdown y devuelva tu contenido convertido, más una regla en .htaccess:

RewriteCond %{HTTP_ACCEPT} text/markdown
RewriteRule ^(.*)$ markdown-negotiator.php [L,QSA]

Para Agent Skills, crea un archivo JSON con la lista de recursos de tu sitio y sirve en /.well-known/agent-skills/index.json.

Por qué 50/100 es el puntaje correcto

No todos los estándares aplican a todos los sitios. Un blog personal no necesita OAuth. Una tienda en línea no necesita MCP. El puntaje perfecto no es 100. Es el máximo que tiene sentido para tu caso.

50/100 para un blog con PHP vanilla en hosting compartido significa que estoy implementando todo lo que un agente de IA necesita para descubrir, entender y citar mi contenido. No más, no menos.

La mayoría de blogs ni siquiera tienen llms.txt. La mayoría ni sabe que Content Signals existe. La mayoría no devuelve Markdown cuando un agente lo pide. Si tu blog tiene esas cuatro cosas, estás más preparado para agentes de IA que el 95% de los sitios en internet.

Puedes probar tu propio sitio en isitagentready.com. No necesitas cuenta ni registro. Solo tu URL.

El siguiente campo de batalla del SEO no son los rankings. Son las citaciones. Y las citaciones empiezan con estructura.

Sobre este tema también escribí: Tutorial Claude Code: cómo un diseñador construyó su web desde cero (2026) | Shinobis.