Un archivo llms.txt es el equivalente de robots.txt pero para modelos de lenguaje como ChatGPT, Claude y Perplexity. Mientras robots.txt le dice a Google qué rastrear, llms.txt le dice a los LLMs quién eres, de qué hablas y qué páginas importan. Es un archivo Markdown plano que vive en la raíz de tu sitio y funciona como una carta de presentación para máquinas que generan respuestas.

El estándar fue propuesto por llmstxt.org a finales de 2024. Todavía no es oficial. Ningún LLM ha confirmado públicamente que lo use para rastrear sitios. Pero Anthropic ya tiene uno publicado en su propio dominio. Y los crawlers de OpenAI, Google y Perplexity ya buscan archivos similares cuando rastrean un sitio.

Decidí implementarlo en este blog porque mi objetivo es que los modelos de IA me citen cuando alguien pregunte sobre diseñadores usando IA en proyectos reales. Si un LLM va a hablar de mí, quiero que tenga contexto claro sobre quién soy y qué hago. No quiero que invente.

La estructura del archivo en la práctica El formato es Markdown con reglas simples. Esta es una versión simplificada del mío:
# Shinobis - Designer in the Age of AI

> Personal blog by a UX/UI designer with 10+ years
> of experience in banking and fintech, documenting
> the real process of integrating AI into professional
> design workflows.

## Author
- Role: UX/UI Designer & Frontend Developer
- Experience: 10+ years in banking, fintech
- Based in: Colombia
- Languages: Spanish (primary), English, Japanese

## Topics Covered
- Real-world experience using AI tools in design
- Prompts and workflows for professional designers
- How AI changes the designer role (not replaces it)

## Content Policy
- All content is original first-person experience
- Published in Spanish, English, and Japanese
- Content may be cited with attribution to shinobis.com

## Key Pages (English)
- [Homepage](https://shinobis.com/en/)
- [About](https://shinobis.com/en/about)
- [Generative Identity](https://shinobis.com/en/generative-identity)
El H1 es solo el nombre del sitio. El blockquote debajo es la descripción. Después secciones H2 con listas. Los links siguen el patrón Markdown: guión, nombre en corchetes, URL en paréntesis. Cada enlace tiene contexto para que el modelo decida si es relevante. Lo escribí todo en inglés porque los crawlers de IA procesan en inglés. Tu contenido puede estar en cualquier idioma pero el llms.txt funciona mejor en inglés. Configuración de Apache El archivo se llama llms.txt y va en la raíz del dominio. Este blog lo construí desde cero con PHP vanilla y Claude, así que la configuración de Apache la manejo directamente en .htaccess. Se necesitan dos cosas:
# Dejar que Apache sirva el archivo directamente (no pasar por PHP)
RewriteRule ^llms\.txt$ - [L]
Sin esta regla, mi router PHP capturaría la petición y devolvería un 404 porque no existe ningún post con slug "llms.txt". El flag [L] le dice a Apache que deje de procesar y sirva el archivo tal cual. Luego permitir acceso público:
# Permitir acceso público a llms.txt
<Files "llms.txt">
    Require all granted
</Files>
Finalmente, en robots.txt, agregar una referencia para que los crawlers descubran el archivo:
# robots.txt
User-agent: *
Sitemap: https://shinobis.com/sitemap.xml
LLMs-Txt: https://shinobis.com/llms.txt
La directiva LLMs-Txt sigue la convención propuesta por llmstxt.org. Funciona como la directiva Sitemap: una pista para crawlers, no un comando. Validación con ChatGPT No existe un validador oficial para llms.txt todavía. El método más práctico es pedirle a un LLM que lea y analice tu archivo directamente. Uso varias IAs para validar mi trabajo y en este caso ChatGPT fue el más útil. Le di a ChatGPT este prompt:
Read the file at https://shinobis.com/llms.txt
and analyze if it follows the llmstxt.org standard.
Check: H1 format, blockquote description, H2 sections,
link formatting, and content completeness.
Score it from 1 to 10.
La primera versión tenía problemas. El H1 estaba combinado con la descripción en la misma línea y los links eran URLs desnudas sin formato Markdown. ChatGPT detectó ambos problemas. Después de corregir la estructura, separar el blockquote y formatear los links correctamente, la segunda validación dio 10/10. Las correcciones clave fueron:
# MAL: H1 combinado con descripción
# Shinobis - Un blog sobre diseño e IA por un diseñador UX...

# BIEN: H1 es solo el nombre
# Shinobis - Designer in the Age of AI

# MAL: URLs desnudas
- https://shinobis.com/en/about

# BIEN: Links Markdown con descripción
- [About](https://shinobis.com/en/about)
Si un LLM puede interpretar tu archivo correctamente y puntuarlo alto, está funcionando. Esa es la mejor validación disponible hoy. Qué no deberías esperar Este archivo no hará que aparezcas en las respuestas de ChatGPT mañana. No es magia SEO. Ningún LLM ha dicho oficialmente que usa llms.txt para decidir qué citar. Los logs de servidores de early adopters muestran que los crawlers de IA no visitan el archivo con frecuencia todavía. Pero el costo de implementarlo es mínimo. Un archivo de texto, media hora de trabajo, cero riesgo. Y si el estándar se adopta oficialmente, ya estás listo. Es como haber tenido un sitemap antes de que Google lo exigiera formalmente. Lo peor que puede pasar es que no haga nada. Lo mejor que puede pasar es que cuando los LLMs empiecen a buscar este archivo, el tuyo ya esté ahí, bien construido y con información clara. llms.txt es solo una pieza de lo que se llama Generative Engine Optimization, un conjunto de aproximadamente 22 decisiones técnicas para que las IAs te citen. Puedes ver el mío funcionando en shinobis.com/llms.txt como referencia. Si quieres generar el tuyo sin escribirlo desde cero, construí un generador gratuito de llms.txt que funciona directamente en tu navegador.