SEO y Marketing

¿Por qué Google no indexa tu web? Diagnóstico real y soluciones por orden de prioridad

E
Equip editorial Posicionament-Web
03 May 2026 9 min 10 visitas

¿Por qué Google no indexa tu web? Diagnóstico real y soluciones por orden de prioridad

Cuando una web no aparece en Google, la primera reacción suele ser pensar que hay que "hacer más SEO". Pero el problema casi siempre es anterior: Google ni siquiera ha indexado las páginas. Sin indexación no hay posicionamiento, y todo el contenido que has creado es invisible. En este artículo encontrarás las causas que aparecen una y otra vez cuando auditamos webs de negocios catalanes, en qué orden atacarlas y cómo identificar exactamente dónde está el bloqueo.

Indexación: el paso cero que muchos saltan

Indexar significa que Googlebot ha visitado tu página, la ha procesado y la ha añadido a la base de datos de Google. Solo las páginas indexadas pueden aparecer en los resultados de búsqueda. El proceso tiene tres fases:

  • Rastreo: Googlebot visita la URL siguiendo enlaces o el sitemap.
  • Procesamiento: Google analiza el contenido, los enlaces internos y las señales técnicas.
  • Indexación: La página entra en el índice y puede aparecer en las SERPs.

El bloqueo puede ocurrir en cualquiera de estas tres fases. Saber en cuál se detiene es lo que permite solucionarlo rápido, en lugar de tocar cosas a ciegas.

Herramienta de diagnósticoGoogle Search Console (gratuita)
Tiempo de resolución habitualMenos de 1 hora si la causa es técnica; 2–6 semanas si es de contenido
Dificultad técnicaBaja o media en la mayoría de casos
Impacto si no se resuelveCero visibilidad orgánica, independientemente del contenido que tengas

Las 5 causas más habituales, ordenadas por frecuencia

Cuando auditamos webs de pymes catalanas —un restaurante de Gràcia, una clínica dental de Tarragona, una tienda de moda online de Sabadell— nos encontramos las mismas causas, en el mismo orden. Aquí las tienes:

1. Metaetiqueta noindex activa (la más silenciosa y la más frecuente)

En WordPress, en Ajustes → Lectura hay una opción que dice "Desanima a los motores de búsqueda de indexar este sitio". Si está marcada, todas las páginas llevan la metaetiqueta <meta name="robots" content="noindex, nofollow"> y Google no indexará nada, por muy buen contenido que tengas.

Encontramos exactamente esto en una clínica de fisioterapia de Tarragona que llevaba ocho meses sin visitas orgánicas. La web era correcta, el contenido bueno, pero esa opción había quedado activada desde el lanzamiento. Ocho meses perdidos por un checkbox que nadie había revisado.

Cómo comprobarlo ahora mismo: abre cualquier página de tu web, pulsa Ctrl+U para ver el código fuente y busca la palabra "noindex". Si aparece en páginas que quieres posicionar, has encontrado el problema número uno.

2. Robots.txt que bloquea Googlebot

Accede a tudominio.es/robots.txt. Si ves Disallow: / bajo User-agent: * o User-agent: Googlebot, estás bloqueando todo el sitio. Sucede sobre todo en webs que estuvieron en modo staging o mantenimiento y nadie revirtió la configuración cuando se publicó.

Un caso concreto: una tienda de productos artesanales de Girona que migró de dominio. El nuevo dominio tenía el robots.txt del servidor de pruebas, que bloqueaba todo el rastreo. Tres meses sin indexación hasta que lo detectamos en auditoría. La solución tardó diez minutos; el diagnóstico, lo que costó.

3. Web nueva sin backlinks ni sitemap enviado

Google descubre páginas siguiendo enlaces. Si tu web es nueva y nadie enlaza desde fuera, Googlebot puede tardar semanas en encontrarla. Sin sitemap enviado a Search Console, el proceso es aún más lento. No es un error técnico, pero sí una situación que hay que gestionar desde el primer día, no esperar a que "ya se arreglará solo".

4. Contenido duplicado o de calidad insuficiente

Google puede decidir no indexar páginas que considera poco útiles. En e-commerces con cientos de fichas de producto casi idénticas —misma descripción, diferente talla o color— es habitual que Google indexe solo una fracción de las páginas e ignore el resto. Lo vemos mucho en tiendas online de Sabadell y Terrassa que crecen rápido sin una estrategia de contenido clara. La solución aquí no es técnica: es de contenido.

5. Errores de servidor (5xx) o redireccionamientos en bucle

Si el servidor devuelve errores 500 o hay cadenas de redireccionamientos que no terminan, Googlebot abandona el rastreo. Estos errores aparecen claramente en el informe de cobertura de Search Console y hay que resolverlos con tu equipo de desarrollo o con el soporte del hosting.

Lo que marca la diferencia en el diagnóstico: La mayoría de revisiones se detienen en el robots.txt y el sitemap. Nosotros revisamos también los logs del servidor para ver exactamente qué URLs intenta rastrear Googlebot, con qué frecuencia y dónde se detiene. Esta capa adicional es la que permite encontrar problemas que ninguna herramienta automática detecta.

Cómo diagnosticarlo con Search Console, paso a paso

Search Console es la herramienta que te da la respuesta exacta, y es gratuita. Si no la tienes configurada, es el primer paso obligatorio antes de tocar nada más en la web.

  1. Ve a "Indexación → Páginas" en el menú lateral. Verás un resumen de páginas indexadas y excluidas.
  2. Haz clic en "Páginas no indexadas" y agrupa por motivo. Los motivos más habituales: Página excluida por etiqueta noindex, Rastreo bloqueado por robots.txt, Página duplicada: Google ha elegido una versión canónica diferente, Detectada pero no rastreada actualmente. Cada motivo tiene una solución diferente; no los trates todos igual.
  3. Usa la Inspección de URL para páginas concretas. Te indica si Google la ha rastreado, cuándo lo hizo por última vez, qué versión renderizada ha visto y si hay errores específicos. Es la herramienta más precisa que tienes.
  4. Si la página nunca ha sido rastreada, puedes solicitar la indexación manualmente desde esta misma herramienta. Funciona bien para páginas individuales importantes; no es escalable para cientos de páginas.
  5. Revisa el informe de Sitemaps: comprueba que se ha procesado correctamente y que el número de URLs enviadas se aproxima al de páginas que quieres indexar. Una diferencia grande entre las dos cifras es una señal de alerta.
~48h
Tiempo mínimo para ver resultados después de solicitar indexación manual
2–6 sem.
Tiempo habitual para indexar una web nueva sin backlinks
<1h
Tiempo para resolver la mayoría de causas técnicas una vez identificadas

En qué orden actuar

Sigue este orden. No saltes pasos: cada nivel descarta causas y evita que pierdas tiempo solucionando el síntoma equivocado.

  1. Comprueba el noindex en el código fuente de la página principal y de una página interior importante (Ctrl+U → busca "noindex").
  2. Revisa el robots.txt (tudominio.es/robots.txt) y confirma que no hay ningún Disallow global ni ninguna regla que bloquee Googlebot.
  3. Abre Search Console → Indexación → Páginas y lee los motivos de exclusión. Agrupa por motivo y ataca el grupo más grande primero.
  4. Envía el sitemap XML si no lo has hecho. Comprueba que las URLs del sitemap coinciden exactamente con las URLs canónicas de la web: con o sin www, con o sin barra final. Una discrepancia aquí hace que Google ignore el sitemap.
  5. Añade enlaces internos desde páginas ya indexadas hacia las que quieres que Google encuentre. Es la manera más rápida de acelerar el rastreo sin depender de herramientas externas ni de esperar.
  6. Mejora el contenido de las páginas excluidas por calidad insuficiente: añade texto útil, estructura clara, imágenes con alt text descriptivo.

Si sigues este orden y el problema persiste, probablemente estamos ante un problema de presupuesto de rastreo (crawl budget) en webs grandes, o de un bloqueo a nivel de servidor que requiere revisar los logs. En este punto vale la pena contar con ayuda profesional.

¿Quieres que revisemos tu web sin coste? Hacemos una primera revisión de Search Console y te explicamos exactamente dónde está el bloqueo. Contacta con nosotros aquí.

Errores que raramente salen en los tutoriales

Más allá de las causas habituales, hay errores de criterio que se repiten y que casi nunca aparecen en los artículos genéricos sobre indexación:

  • Sitemap en conflicto con las canónicas: Si el sitemap incluye https://www.dominio.es/pagina/ pero la canónica de la página apunta a https://dominio.es/pagina (sin www, sin barra final), Google ignora el sitemap. Lo vemos mucho en migraciones mal ejecutadas donde el sitemap se generó antes de definir el formato de URL definitivo.
  • Categorías vacías en e-commerces: Una tienda online con 200 categorías, la mitad sin productos, genera cientos de páginas de valor cero que consumen presupuesto de rastreo innecesariamente. Hay que eliminarlas o aplicar noindex hasta que tengan contenido real.
  • HTTPS mal configurado o contenido mixto: Si el certificado SSL tiene errores o hay recursos cargados por HTTP dentro de una página HTTPS, Google puede reducir la frecuencia de rastreo. No bloquea la indexación directamente, pero la penaliza de manera indirecta y progresiva.
  • Cambio de dominio sin redireccionamientos 301: Un despacho de abogados del Hospitalet que cambió de dominio sin redireccionamientos perdió toda su indexación acumulada en cuestión de semanas. Las páginas del nuevo dominio eran nuevas para Google; las del antiguo quedaban como errores 404. Meses de trabajo perdidos por no hacer una migración correcta.
  • Core Web Vitals muy malos: No bloquean la indexación directamente, pero Google reduce la prioridad de rastreo en webs con tiempos de carga muy altos. Un LCP superior a 4 segundos en móvil es una señal negativa que afecta la frecuencia con la que Googlebot visita el sitio a largo plazo.
Una reflexión honesta: Detectar estos errores no requiere herramientas caras. Requiere saber dónde mirar y haber visto suficientes proyectos para reconocer los patrones. Si tu agencia actual nunca te ha hablado del crawl budget, de los logs de servidor o de los conflictos entre sitemap y canónicas, quizá vale la pena pedir una segunda opinión.

Conclusión

Si Google no indexa tu web, tienes un problema concreto y resoluble. La mayoría de casos que hemos visto —desde un restaurante de Gràcia hasta una clínica de Tarragona o un e-commerce de Sabadell— tenían una causa técnica identificable en menos de 30 minutos con Search Console. Lo que falla casi nunca es el contenido: lo que falla es el diagnóstico.

Sigue el orden de actuación que te hemos explicado: comprueba primero el noindex y el robots.txt, abre Search Console y lee los motivos de exclusión exactos. Si prefieres ahorrar tiempo y tener la certeza de que no te dejas nada, ofrecemos una revisión gratuita de la indexación donde te explicamos dónde está el problema y cómo solucionarlo. Escríbenos sin compromiso.

Preguntas frecuentes

¿Cuánto tarda Google en indexar una página nueva?

En webs consolidadas con buen perfil de enlaces, puede ser cuestión de horas o 2–3 días. En webs nuevas sin backlinks, entre 2 y 6 semanas. Enviar la URL manualmente desde Search Console y tener un sitemap actualizado acelera el proceso de manera notable.

¿Cómo sé exactamente por qué motivo Google no indexa una página concreta?

Usa la Inspección de URL en Google Search Console: introduce la URL y te indicará si ha sido rastreada, cuándo, qué versión ha visto Google y cuál es el motivo exacto de exclusión si lo hay. Es la herramienta más precisa que tienes y es completamente gratuita.

¿Puede Google indexar una página sin sitemap?

Sí, si hay enlaces internos o externos que apunten a la página. Pero enviar un sitemap siempre acelera el proceso y da a Google una visión completa de la estructura del sitio, especialmente en webs nuevas o con muchas páginas.

¿Cuál es el error de indexación más común en webs WordPress?

La opción "Desanima a los motores de búsqueda" en Ajustes → Lectura. Si está marcada, ninguna página de WordPress será indexada por Google, independientemente del contenido. Es silenciosa, fácil de activar por accidente durante el desarrollo y muy fácil de pasar por alto.

Si tengo muchas páginas excluidas en Search Console, ¿significa que mi SEO es malo?

No necesariamente. Algunas exclusiones son normales e intencionadas: páginas de administración, política de privacidad, resultados de búsqueda interna. El problema real es cuando páginas importantes —productos, servicios, posts— aparecen como excluidas. En este caso, lee el motivo exacto en Search Console y actúa en consecuencia.

¿Quieres mejorar el posicionamiento de tu negocio en Cataluña?

Análisis SEO inicial gratuito: te decimos por dónde empezar.

Análisis gratuito


Compartir:
E
Equip editorial Posicionament-Web

L'equip editorial de Posicionament-Web publica continguts SEO pensats per a negocis de Catalunya.

Comentarios

No hay comentarios todavía. ¡Sé el primero en comentar!

Deja un comentario