Página descubierta pero no indexada: por qué ocurre y cómo lo soluciono
Abres Google Search Console, vas a la sección de indexación y encuentras un montón de páginas con el estado "Descubierta: pendiente de indexación". La primera tentación es hacer clic en «Solicita la indexación» y esperar. Mal camino. He visto esta situación decenas de veces —en una tienda de ropa de Sabadell, en un despacho de abogados de Barcelona, en una clínica dental de Tarragona— y casi nunca se resuelve sola. Lo que sí funciona es entender por qué ocurre y actuar en el orden correcto.
¿Qué significa exactamente este estado?
Google hace dos cosas separadas: descubrir una URL e indexarla. Descubrir significa que Googlebot ha visto la dirección —a través del sitemap, a través de un enlace interno o externo— pero aún no ha ido a leer su contenido. Indexar significa que la ha leído, valorado y decidido incluirla en los resultados de búsqueda.
Cuando una página aparece como «descubierta pero no indexada», Googlebot sabe que existe pero ha decidido posponer su visita. No es un error técnico en sí mismo: es una decisión de prioridad. Y aquí es donde debes entender por qué Google toma esta decisión.
| Estado en Search Console | Descubierta: pendiente de indexación |
|---|---|
| Inglés | Discovered – currently not indexed |
| Dónde encontrarlo | Search Console → Indexación → Páginas → filtra por motivo |
| Causa más frecuente | Crawl budget insuficiente o señal de calidad baja |
| Tiempo de resolución típico | 1–4 semanas una vez aplicadas las correcciones |
Fíjate en la diferencia con el estado «Rastreada: pendiente de indexación»: en ese caso Googlebot ha visitado la página y ha decidido no indexarla —problema de calidad de contenido. En el caso de «Descubierta», ni siquiera ha pasado a leerla. A menudo es un problema de arquitectura y prioridad, no de texto.
¿Por qué Google no rastrea la página?
Raramente hay una sola causa. Lo que encuentro habitualmente es una combinación de dos o tres factores simultáneos. Aquí están los principales, ordenados por frecuencia real:
Crawl budget agotado por URLs innecesarias
El crawl budget es el número de páginas que Googlebot está dispuesto a rastrear en tu dominio en un período de tiempo. Cuando este presupuesto se agota en páginas sin valor, las páginas importantes quedan sin rastrear.
Un caso típico: una tienda de moda de Sabadell con 800 productos reales pero 4.000 URLs indexables porque los filtros de talla, color y precio generan combinaciones infinitas sin noindex ni canonical. Googlebot llega al límite antes de llegar a los productos que importa indexar. Cómo lo detectas: en Search Console, ve a Configuración → Estadísticas de rastreo. Si el número de páginas rastreadas por día es mucho menor que el total de páginas del sitio web, tienes un problema de crawl budget.
Autoridad de dominio insuficiente
Google prioriza el rastreo de sitios web con buena reputación. Un restaurante nuevo de Gràcia sin ningún backlink externo puede tardar semanas en ver indexadas todas sus páginas, incluso si el contenido es bueno. No es un castigo: es que Googlebot tiene millones de sitios web a rastrear y prioriza los que considera más fiables. La solución aquí no es técnica; es conseguir primeros enlaces de calidad.
Estructura de enlaces internos débil
Si la página afectada no recibe ningún enlace interno desde otras páginas del sitio web, Google la considera poco relevante. El caso más habitual que veo: una clínica de Tarragona crea una página nueva de servicio —por ejemplo, «ortodoncia invisible»— pero no la enlaza desde el menú, desde la página de inicio ni desde ningún artículo del blog. Googlebot la encuentra en el sitemap pero no ve ninguna señal interna de importancia.
Contenido que Google no considera prioritario
Desde las actualizaciones de utilidad de contenido, Google rastrea con menos urgencia páginas finas o muy similares a otras del mismo dominio. Una página de servicio de 150 palabras sin estructura, sin respuesta clara a ninguna pregunta real del usuario, tiene muchas probabilidades de acabar en este estado. Y si tienes dos páginas que cubren el mismo tema con palabras ligeramente diferentes, Google puede decidir no rastrear ninguna de las dos con prioridad.
Cómo solucionarlo: orden de actuación real
Aquí es donde la mayoría de artículos fallan: te dicen «mejora el contenido y solicita la indexación» sin decirte en qué orden ni por dónde empezar. Este es el proceso que sigo:
Limpia el sitemap XML (día 1). Comprueba que no contiene URLs con errores 404, redirecciones 301, etiquetas
noindexo páginas de paginación. Herramientas como Screaming Frog o Sitebulb lo hacen en minutos. Un sitemap sucio es el saboteador silencioso de la indexación.Bloquea URLs de baja calidad (días 2–5). Añade
noindexa páginas de filtros, etiquetas, resultados de búsqueda interna y paginación profunda. En e-commerce, este paso suele tener el mayor impacto porque libera crawl budget de golpe. Si tienes dudas sobre qué páginas bloquear, pregúntate: «¿Alguien buscaría exactamente esta URL en Google?» Si la respuesta es no, aplicanoindex.Refuerza los enlaces internos (días 3–7). Añade al menos 2–3 enlaces desde páginas con autoridad —inicio, categorías principales, artículos del blog con tráfico— hacia cada página afectada. No es opcional: es la señal más directa que le das a Google sobre la importancia de una página. Si no hay ninguna página de tu sitio web que apunte a la URL afectada, para Google es como si no existiera.
Mejora el contenido de las páginas afectadas (días 5–14). Asegúrate de que cada página importante tiene al menos 400–500 palabras útiles, responde una pregunta real del usuario y es claramente diferente de otras páginas de tu sitio web. Si dos páginas cubren el mismo tema, fusiónalas en una sola y redirige la URL antigua.
Solicita la indexación manual (una vez hechos los pasos anteriores). En Search Console, utiliza la herramienta de inspección de URL y haz clic en «Solicita la indexación». Hazlo después de las mejoras, nunca antes. Para volúmenes grandes de páginas, actualiza la fecha del sitemap y vuelve a enviarlo desde Search Console.
Trabaja los backlinks externos (paralelo o posterior). Uno o dos enlaces de calidad hacia las páginas afectadas —desde un directorio sectorial, un artículo de prensa local o un colaborador del sector— pueden acelerar significativamente el rastreo, especialmente si el dominio es relativamente nuevo.
Errores que lo hacen peor
Estos son los errores que veo repetidamente, independientemente de si el negocio es una tienda de Girona o una consultoría del Eixample:
- Solicitar indexación sin corregir la causa. Lo más frecuente. Google recibe la solicitud, comprueba que nada ha cambiado e la ignora. Pasados unos días, la página vuelve al mismo estado. Es como llamar al médico sin explicarle los síntomas.
- Sitemap inflado con URLs sin valor. Páginas de «gracias por tu compra», perfiles de usuario, resultados de búsqueda interna o URLs con parámetros UTM. Cada URL innecesaria en el sitemap es ruido que dificulta el rastreo de las que importan.
- Paginación sin gestionar. Categorías con /page/2, /page/3… hasta /page/47 que consumen crawl budget sin aportar valor. La solución habitual es
noindexa partir de la página 2. - Canonical incorrecto o ausente en variantes de producto. En e-commerce, cada variante (talla S, M, L; color rojo, azul) puede generar una URL casi idéntica. Sin canonical apuntando a la URL principal, Google ve contenido duplicado y rastrea todo el conjunto con menos prioridad.
- Confundir «descubierta» con «rastreada» no indexada. Las causas y las soluciones no son las mismas. Si aplicas la solución equivocada, pierdes tiempo y no avanzas.
¿Cuándo debes actuar hoy mismo?
| Situación | Urgencia | Primera acción |
|---|---|---|
| Páginas de servicios o productos principales afectadas | 🔴 Alta | Enlaces internos + solicitud manual hoy |
| Decenas o centenares de páginas afectadas | 🔴 Alta | Auditoría de crawl budget y limpieza de sitemap |
| Sitio web nuevo (menos de 6 meses) con pocas páginas | 🟡 Media | Backlinks + contenido de calidad + paciencia |
| Páginas secundarias (blog antiguo, archivos) | 🟢 Baja | Espera 3–4 semanas; si persiste, revisa calidad |
La situación que requiere acción más urgente es cuando las páginas afectadas son las de servicios o productos principales. Lo he visto con una clínica estética de Tarragona que tenía las páginas de tratamientos en este estado durante dos meses sin saberlo. Cuando corregimos la arquitectura interna y limpiamos el sitemap, el tráfico orgánico mejoró de forma notable en las semanas siguientes. Cada semana que una página clave no se indexa es tráfico que va a parar a la competencia.
Si quieres saber exactamente cuántas páginas de tu sitio web están en este estado y cuáles necesitan atención urgente, pídenos una revisión inicial gratuita de Search Console. En menos de 48 horas te decimos dónde está el problema real y por dónde debes empezar.
Preguntas frecuentes
¿Cuánto tiempo tarda Google en indexar una página nueva?
En sitios web consolidados con buena autoridad, puede ser cuestión de días. En sitios web nuevos o con poco tráfico, puede tardar entre 2 y 8 semanas. Solicitar la indexación manualmente en Search Console puede acelerar el proceso, pero solo es efectivo si el contenido y la estructura están en orden. Si solicitas la indexación de una página con problemas, Google simplemente la vuelve a poner en la cola.
¿Puedo forzar a Google a indexar una página?
No del todo. Puedes solicitar la indexación a través de Search Console, pero Google decide si la indexa y cuándo. Lo que sí puedes controlar es mejorar las condiciones: contenido útil y diferenciado, buenos enlaces internos, sitemap limpio y, si es posible, algún backlink externo de calidad apuntando a la página.
¿Cuál es la diferencia entre «descubierta» y «rastreada» pero no indexada?
«Descubierta» significa que Google sabe que la URL existe pero no la ha visitado —problema de prioridad de rastreo. «Rastreada» significa que Googlebot ha leído la página y ha decidido no indexarla, a menudo porque el contenido no es lo suficientemente útil o es muy similar a otra página del mismo sitio web. El primero se resuelve con arquitectura; el segundo, con mejora de contenido.
¿El crawl budget afecta a sitios web pequeños?
En sitios web con menos de 500–1.000 páginas, el crawl budget raramente es el problema principal. Si tienes un sitio web pequeño con muchas páginas no indexadas, el problema suele ser de calidad de contenido, de autoridad de dominio o de estructura de enlaces internos débil. Empieza por revisar estos tres factores antes de preocuparte por el crawl budget.
¿Debo preocuparme si mi sitio web es nuevo?
Es normal que un sitio web nuevo tarde en indexar todas sus páginas. Lo que puedes hacer es centrarte en contenido de calidad, conseguir los primeros backlinks y asegurarte de que la estructura interna es clara y que el sitemap es limpio. Con buenas prácticas, la indexación mejora progresivamente en 3–6 meses. Si pasados 6 meses aún tienes páginas importantes en este estado, hay que revisarlo en profundidad.