En enero de 2026, algo cambió en Google. Empresas SaaS conocidas empezaron a perder visibilidad orgánica. No un 5%. No un 10%. Caídas de entre 29% y 49% en semanas.

Lily Ray, una de las expertas más respetadas en SEO y recuperación de core updates de Google, documentó el patrón. Analizó múltiples sitios afectados y encontró un denominador común: cientos de listicles auto-promocionales donde la empresa se ponía a sí misma en el puesto número uno. "Best project management tools" y adivina quién aparece primero. "Best CRM for small business" y la empresa que escribió el artículo se corona sola.

La táctica funcionaba. Las empresas aparecían en AI Overviews de Google, en respuestas de ChatGPT, en Perplexity. El problema es que Google eventualmente detecta todo. Y cuando lo detecta, no avisa. Solo baja el volumen.

Los números que nadie quería ver

Una empresa B2B de 8 mil millones de dólares perdió 49% de visibilidad orgánica entre el 21 de enero y el 2 de febrero. Su blog representaba el 77% de la visibilidad del sitio. Tenía 191 listicles auto-promocionales entre 30,000 artículos indexados.

Una empresa SaaS perdió 43%. Su carpeta de guías, que representaba el 85% de la visibilidad del sitio, cayó en picada. 228 listicles auto-promocionales entre 2,780 artículos.

Otra empresa perdió 42%. Su carpeta de tutoriales cayó a niveles que no veía desde 2021. 76 listicles auto-promocionales, 38 de ellos actualizados con "2026" en el título cuando el año apenas tenía cuatro semanas.

El patrón se repitió en seis sitios más. Todos SaaS. Todos con blogs que representaban más del 80% de su visibilidad. Todos con docenas o cientos de artículos donde se coronaban como los mejores en su propia categoría.

Por qué esto era predecible

Google lleva años publicando guías sobre contenido útil. Sus preguntas de evaluación son claras: ¿el contenido proporciona investigación original? ¿El título evita ser engañoso? ¿La información se presenta de forma confiable?

De hecho, Google lo admitió internamente hace años. Documentos del juicio antimonopolio del DOJ (caso 1:20-cv-03010-APM) revelaron que el ingeniero Eric Lehman dijo en una presentación interna de 2016: "No entendemos los documentos. Lo fingimos." Durante años, Google dependió de clicks de usuarios para evaluar contenido. Pero eso cambió. Ahora sus sistemas miden contentEffort, una estimación por IA del esfuerzo humano real invertido en cada página, y originalContentScore para penalizar contenido derivativo o generado en masa. Los listicles auto-promocionales generados con IA sacan cero en ambas métricas. Google ya no necesita fingir para detectarlos.

Un artículo donde la empresa que lo publica se pone a sí misma en primer lugar no pasa ninguna de esas pruebas. No hay metodología transparente. No hay evidencia de haber probado las alternativas. No hay evaluación independiente. Solo una empresa diciéndole a Google y a los LLMs: "yo soy el mejor, confía en mí".

La trampa es que funcionaba. ChatGPT no tiene la sofisticación de Google para detectar contenido manipulativo. Cuando un LLM busca "best CRM" y encuentra diez artículos de diez empresas diciendo que son las mejores, cita al que tiene mejor schema, mejor estructura y más backlinks. No verifica si la evaluación es honesta.

Pero Google sí. Y cuando Google baja tu visibilidad, los LLMs que usan RAG (retrieval-augmented generation) basado en resultados de Google también dejan de citarte. Glenn Gabe, otro experto en core updates, confirmó que los sitios que cayeron en búsqueda orgánica también perdieron presencia en AI Overviews.

La alternativa que nadie quiere escuchar

La alternativa a las tácticas grises no es sexy. No es un hack. No es un template que puedas replicar 200 veces. Es infraestructura.

Infraestructura significa implementar estándares que los motores de búsqueda y los modelos de IA reconocen como señales de confianza legítimas. No porque manipulen el sistema, sino porque le dan al sistema exactamente lo que necesita para entender tu contenido.

Esto es lo que yo implementé en este blog en tres meses:

llms.txt en la raíz del dominio. Un archivo que le dice a los modelos de IA quién soy, de qué escribo y cuáles son mis páginas importantes. No manipula nada. Solo organiza la información que ya existe.

JSON-LD Knowledge Graph automático en cada post. Cinco entidades conectadas con @id persistentes: WebSite, Organization, Person, WebPage, BlogPosting. Detección automática de temas con about y herramientas con mentions. Relaciones entre posts con citation y relatedLink. Conexiones multilingües con workTranslation. ChatGPT lo auditó y le dio 9.1 sobre 10.

Content Signals en robots.txt. Una línea que le dice a los crawlers de IA: no entrenes con mi contenido, sí muéstralo en búsquedas, sí úsalo como input para respuestas. La diferencia entre ceder tu trabajo gratis y establecer las reglas de cómo se usa.

Markdown for Agents. Cuando un agente de IA pide una página con el header Accept: text/markdown, mi servidor le devuelve Markdown limpio en vez de HTML. Los agentes procesan Markdown más eficientemente.

Agent Skills discovery. Un archivo JSON que describe las herramientas disponibles en mi sitio para que los agentes las descubran automáticamente.

Nada de esto es un hack. Todo es un estándar público, documentado, que cualquiera puede implementar. Y a diferencia de un listicle auto-promocional, ninguno de estos estándares te va a penalizar en un core update.

La diferencia entre construir sobre arena y construir sobre roca

Las empresas que perdieron visibilidad construyeron sobre tácticas. Encontraron algo que funcionaba, lo escalaron a cientos de páginas y cruzaron los dedos esperando que Google no lo notara.

Lo que hago con este blog es diferente no porque sea más inteligente. Es diferente porque construyo infraestructura que se alinea con lo que Google y los LLMs quieren a largo plazo: contenido específico, con experiencia real, estructurado para máquinas que razonan.

Cada post que escribo tiene schema automático con entidades detectadas del contenido. Cada artículo está conectado con otros a través de relaciones de conocimiento, no solo links de navegación. Cada herramienta que construyo tiene un propósito real para el visitante, no solo para los crawlers.

Esto lo construí sin saber PHP usando Claude como compañero de desarrollo. No necesitas ser developer para implementar infraestructura. Necesitas entender qué necesitan las máquinas para confiar en tu contenido.

Qué puedes hacer hoy

Si tienes un blog con listicles donde tu empresa aparece en primer lugar, no los borres todavía. Pero deja de crear más. Cada uno nuevo es deuda técnica que te puede costar el 40% de tu visibilidad cuando Google lo detecte.

En vez de eso, empieza con infraestructura. Crea un llms.txt para tu dominio. Implementa JSON-LD con @id persistentes. Agrega Content Signals a tu robots.txt. Escribe contenido basado en experiencia real que un modelo de IA pueda citar sin sentir que está repitiendo propaganda.

Las 22 decisiones técnicas de Generative Engine Optimization que implementé son públicas. Cada una está documentada con código, datos y resultados.

Las tácticas grises funcionan hasta que dejan de funcionar. La infraestructura no tiene fecha de vencimiento.