¿Por qué Google no indexa tu web? Diagnóstico real y soluciones por orden de prioridad
Cuando una web no aparece en Google, la primera reacción suele ser pensar que hay que "hacer más SEO". Pero el problema casi siempre es anterior: Google ni siquiera ha indexado las páginas. Sin indexación no hay posicionamiento, y todo el contenido que has creado es invisible. En este artículo encontrarás las causas que aparecen una y otra vez cuando auditamos webs de negocios catalanes, en qué orden atacarlas y cómo identificar exactamente dónde está el bloqueo.
Indexación: el paso cero que muchos saltan
Indexar significa que Googlebot ha visitado tu página, la ha procesado y la ha añadido a la base de datos de Google. Solo las páginas indexadas pueden aparecer en los resultados de búsqueda. El proceso tiene tres fases:
- Rastreo: Googlebot visita la URL siguiendo enlaces o el sitemap.
- Procesamiento: Google analiza el contenido, los enlaces internos y las señales técnicas.
- Indexación: La página entra en el índice y puede aparecer en las SERPs.
El bloqueo puede ocurrir en cualquiera de estas tres fases. Saber en cuál se detiene es lo que permite solucionarlo rápido, en lugar de tocar cosas a ciegas.
| Herramienta de diagnóstico | Google Search Console (gratuita) |
|---|---|
| Tiempo de resolución habitual | Menos de 1 hora si la causa es técnica; 2–6 semanas si es de contenido |
| Dificultad técnica | Baja o media en la mayoría de casos |
| Impacto si no se resuelve | Cero visibilidad orgánica, independientemente del contenido que tengas |
Las 5 causas más habituales, ordenadas por frecuencia
Cuando auditamos webs de pymes catalanas —un restaurante de Gràcia, una clínica dental de Tarragona, una tienda de moda online de Sabadell— nos encontramos las mismas causas, en el mismo orden. Aquí las tienes:
1. Metaetiqueta noindex activa (la más silenciosa y la más frecuente)
En WordPress, en Ajustes → Lectura hay una opción que dice "Desanima a los motores de búsqueda de indexar este sitio". Si está marcada, todas las páginas llevan la metaetiqueta <meta name="robots" content="noindex, nofollow"> y Google no indexará nada, por muy buen contenido que tengas.
Encontramos exactamente esto en una clínica de fisioterapia de Tarragona que llevaba ocho meses sin visitas orgánicas. La web era correcta, el contenido bueno, pero esa opción había quedado activada desde el lanzamiento. Ocho meses perdidos por un checkbox que nadie había revisado.
Cómo comprobarlo ahora mismo: abre cualquier página de tu web, pulsa Ctrl+U para ver el código fuente y busca la palabra "noindex". Si aparece en páginas que quieres posicionar, has encontrado el problema número uno.
2. Robots.txt que bloquea Googlebot
Accede a tudominio.es/robots.txt. Si ves Disallow: / bajo User-agent: * o User-agent: Googlebot, estás bloqueando todo el sitio. Sucede sobre todo en webs que estuvieron en modo staging o mantenimiento y nadie revirtió la configuración cuando se publicó.
Un caso concreto: una tienda de productos artesanales de Girona que migró de dominio. El nuevo dominio tenía el robots.txt del servidor de pruebas, que bloqueaba todo el rastreo. Tres meses sin indexación hasta que lo detectamos en auditoría. La solución tardó diez minutos; el diagnóstico, lo que costó.
3. Web nueva sin backlinks ni sitemap enviado
Google descubre páginas siguiendo enlaces. Si tu web es nueva y nadie enlaza desde fuera, Googlebot puede tardar semanas en encontrarla. Sin sitemap enviado a Search Console, el proceso es aún más lento. No es un error técnico, pero sí una situación que hay que gestionar desde el primer día, no esperar a que "ya se arreglará solo".
4. Contenido duplicado o de calidad insuficiente
Google puede decidir no indexar páginas que considera poco útiles. En e-commerces con cientos de fichas de producto casi idénticas —misma descripción, diferente talla o color— es habitual que Google indexe solo una fracción de las páginas e ignore el resto. Lo vemos mucho en tiendas online de Sabadell y Terrassa que crecen rápido sin una estrategia de contenido clara. La solución aquí no es técnica: es de contenido.
5. Errores de servidor (5xx) o redireccionamientos en bucle
Si el servidor devuelve errores 500 o hay cadenas de redireccionamientos que no terminan, Googlebot abandona el rastreo. Estos errores aparecen claramente en el informe de cobertura de Search Console y hay que resolverlos con tu equipo de desarrollo o con el soporte del hosting.
Cómo diagnosticarlo con Search Console, paso a paso
Search Console es la herramienta que te da la respuesta exacta, y es gratuita. Si no la tienes configurada, es el primer paso obligatorio antes de tocar nada más en la web.
- Ve a "Indexación → Páginas" en el menú lateral. Verás un resumen de páginas indexadas y excluidas.
- Haz clic en "Páginas no indexadas" y agrupa por motivo. Los motivos más habituales: Página excluida por etiqueta noindex, Rastreo bloqueado por robots.txt, Página duplicada: Google ha elegido una versión canónica diferente, Detectada pero no rastreada actualmente. Cada motivo tiene una solución diferente; no los trates todos igual.
- Usa la Inspección de URL para páginas concretas. Te indica si Google la ha rastreado, cuándo lo hizo por última vez, qué versión renderizada ha visto y si hay errores específicos. Es la herramienta más precisa que tienes.
- Si la página nunca ha sido rastreada, puedes solicitar la indexación manualmente desde esta misma herramienta. Funciona bien para páginas individuales importantes; no es escalable para cientos de páginas.
- Revisa el informe de Sitemaps: comprueba que se ha procesado correctamente y que el número de URLs enviadas se aproxima al de páginas que quieres indexar. Una diferencia grande entre las dos cifras es una señal de alerta.
En qué orden actuar
Sigue este orden. No saltes pasos: cada nivel descarta causas y evita que pierdas tiempo solucionando el síntoma equivocado.
- Comprueba el noindex en el código fuente de la página principal y de una página interior importante (Ctrl+U → busca "noindex").
- Revisa el robots.txt (tudominio.es/robots.txt) y confirma que no hay ningún Disallow global ni ninguna regla que bloquee Googlebot.
- Abre Search Console → Indexación → Páginas y lee los motivos de exclusión. Agrupa por motivo y ataca el grupo más grande primero.
- Envía el sitemap XML si no lo has hecho. Comprueba que las URLs del sitemap coinciden exactamente con las URLs canónicas de la web: con o sin www, con o sin barra final. Una discrepancia aquí hace que Google ignore el sitemap.
- Añade enlaces internos desde páginas ya indexadas hacia las que quieres que Google encuentre. Es la manera más rápida de acelerar el rastreo sin depender de herramientas externas ni de esperar.
- Mejora el contenido de las páginas excluidas por calidad insuficiente: añade texto útil, estructura clara, imágenes con alt text descriptivo.
Si sigues este orden y el problema persiste, probablemente estamos ante un problema de presupuesto de rastreo (crawl budget) en webs grandes, o de un bloqueo a nivel de servidor que requiere revisar los logs. En este punto vale la pena contar con ayuda profesional.
¿Quieres que revisemos tu web sin coste? Hacemos una primera revisión de Search Console y te explicamos exactamente dónde está el bloqueo. Contacta con nosotros aquí.
Errores que raramente salen en los tutoriales
Más allá de las causas habituales, hay errores de criterio que se repiten y que casi nunca aparecen en los artículos genéricos sobre indexación:
- Sitemap en conflicto con las canónicas: Si el sitemap incluye
https://www.dominio.es/pagina/pero la canónica de la página apunta ahttps://dominio.es/pagina(sin www, sin barra final), Google ignora el sitemap. Lo vemos mucho en migraciones mal ejecutadas donde el sitemap se generó antes de definir el formato de URL definitivo. - Categorías vacías en e-commerces: Una tienda online con 200 categorías, la mitad sin productos, genera cientos de páginas de valor cero que consumen presupuesto de rastreo innecesariamente. Hay que eliminarlas o aplicar noindex hasta que tengan contenido real.
- HTTPS mal configurado o contenido mixto: Si el certificado SSL tiene errores o hay recursos cargados por HTTP dentro de una página HTTPS, Google puede reducir la frecuencia de rastreo. No bloquea la indexación directamente, pero la penaliza de manera indirecta y progresiva.
- Cambio de dominio sin redireccionamientos 301: Un despacho de abogados del Hospitalet que cambió de dominio sin redireccionamientos perdió toda su indexación acumulada en cuestión de semanas. Las páginas del nuevo dominio eran nuevas para Google; las del antiguo quedaban como errores 404. Meses de trabajo perdidos por no hacer una migración correcta.
- Core Web Vitals muy malos: No bloquean la indexación directamente, pero Google reduce la prioridad de rastreo en webs con tiempos de carga muy altos. Un LCP superior a 4 segundos en móvil es una señal negativa que afecta la frecuencia con la que Googlebot visita el sitio a largo plazo.
Conclusión
Si Google no indexa tu web, tienes un problema concreto y resoluble. La mayoría de casos que hemos visto —desde un restaurante de Gràcia hasta una clínica de Tarragona o un e-commerce de Sabadell— tenían una causa técnica identificable en menos de 30 minutos con Search Console. Lo que falla casi nunca es el contenido: lo que falla es el diagnóstico.
Sigue el orden de actuación que te hemos explicado: comprueba primero el noindex y el robots.txt, abre Search Console y lee los motivos de exclusión exactos. Si prefieres ahorrar tiempo y tener la certeza de que no te dejas nada, ofrecemos una revisión gratuita de la indexación donde te explicamos dónde está el problema y cómo solucionarlo. Escríbenos sin compromiso.
Preguntas frecuentes
¿Cuánto tarda Google en indexar una página nueva?
En webs consolidadas con buen perfil de enlaces, puede ser cuestión de horas o 2–3 días. En webs nuevas sin backlinks, entre 2 y 6 semanas. Enviar la URL manualmente desde Search Console y tener un sitemap actualizado acelera el proceso de manera notable.
¿Cómo sé exactamente por qué motivo Google no indexa una página concreta?
Usa la Inspección de URL en Google Search Console: introduce la URL y te indicará si ha sido rastreada, cuándo, qué versión ha visto Google y cuál es el motivo exacto de exclusión si lo hay. Es la herramienta más precisa que tienes y es completamente gratuita.
¿Puede Google indexar una página sin sitemap?
Sí, si hay enlaces internos o externos que apunten a la página. Pero enviar un sitemap siempre acelera el proceso y da a Google una visión completa de la estructura del sitio, especialmente en webs nuevas o con muchas páginas.
¿Cuál es el error de indexación más común en webs WordPress?
La opción "Desanima a los motores de búsqueda" en Ajustes → Lectura. Si está marcada, ninguna página de WordPress será indexada por Google, independientemente del contenido. Es silenciosa, fácil de activar por accidente durante el desarrollo y muy fácil de pasar por alto.
Si tengo muchas páginas excluidas en Search Console, ¿significa que mi SEO es malo?
No necesariamente. Algunas exclusiones son normales e intencionadas: páginas de administración, política de privacidad, resultados de búsqueda interna. El problema real es cuando páginas importantes —productos, servicios, posts— aparecen como excluidas. En este caso, lee el motivo exacto en Search Console y actúa en consecuencia.