Google no indexa la teva web? Aquí tens el diagnòstic real (i per on començar)
Quan una web no apareix a Google, la primera reacció sol ser pensar en SEO: keywords, backlinks, contingut. Però moltes vegades el problema és anterior a tot això. Si Google no ha indexat les teves pàgines, és com si la teva web no existís per a ell —i cap estratègia de posicionament funcionarà fins que això estigui resolt.
He vist aquest problema en restaurants del Born que estrenen web, en clíniques de Tarragona que canvien de proveïdor web i en botigues en línia de Sabadell que porten mesos publicant contingut sense rebre cap visita orgànica. El patró es repeteix. I gairebé sempre té solució en menys d'una setmana si saps on mirar.
Indexació o posicionament? Primer, distingeix el problema
Abans de fer res, comprova en 10 segons si el problema és d'indexació o de posicionament. Obre Google i escriu: site:tudomini.com
- No apareix cap resultat: problema d'indexació. Google no sap que existeixes, o no pot accedir a les teves pàgines.
- Apareixen pàgines però no per les keywords que vols: problema de posicionament. Google et coneix, però no et considera prou rellevant per a aquelles cerques.
Són dos problemes completament diferents. Confondre'ls és perdre setmanes treballant en la cosa equivocada. Si el site: no retorna res —o retorna molt menys del que hauria—, continua llegint.
Les causes reals (ordenades per freqüència)
Aquestes són les causes que trobo amb més freqüència quan audito webs. Les ordeno per probabilitat, no per gravetat, perquè la primera cosa que has de fer és descartar les més habituals:
1. Noindex actiu per error (WordPress)
La causa número u, de lluny. WordPress té una casella a Ajustes → Lectura que diu «Desanima els motors de cerca per indexar aquest lloc». S'activa durant el desenvolupament i sovint ningú la desactiva en publicar la web. A més, plugins com Yoast o RankMath permeten marcar pàgines individuals com a noindex —de vegades sense voler-ho. Una clínica dental de Tarragona que vaig auditar portava quatre mesos invisible a Google per exactament aquest motiu.2. Bloqueig al robots.txt
El fitxerrobots.txtindica a Googlebot quines parts del lloc pot rastrejar. Una reglaDisallow: /bloqueja tota la web. Sol ser un residu de l'entorn de staging que ningú va netejar en passar a producció. El problema és que no dona cap error visible: la web funciona perfectament per als usuaris, però Google no pot entrar.3. Contingut prim o duplicat
Google pot decidir no indexar pàgines que considera de poc valor. Passa molt en e-commerce: fitxes de producte amb descripcions copiades del proveïdor, categories amb un sol producte, pàgines de servei amb tres frases. Si el contingut existeix igual en altres llocs d'internet, Google no té cap raó per indexar la teva versió.4. URLs parametritzades sense canonical
Filtres de cerca, paràmetres UTM o sessions d'usuari que generen centenars de variants d'una mateixa URL. Google les veu com a pàgines duplicades i pot deixar d'indexar-les totes, inclosa l'original. En botigues amb filtres per talla, color i temporada, això pot multiplicar per deu el nombre d'URLs que Google ha de processar.5. Errors de servidor (5xx) o redireccionaments en bucle
Si el servidor retorna un error 500 o 503 quan Googlebot intenta accedir, abandona el rastreig i marca la pàgina com a no disponible. Un hosting sobrecarregat pot generar-ho de manera intermitent, cosa que fa el problema especialment difícil de detectar perquè la web sembla funcionar bé quan tu l'obres.6. Web nova sense sitemap ni backlinks
No és un error tècnic, és simplement que Google no sap que existeixes. Sense cap backlink que apunti a la teva web i sense un sitemap enviat a Search Console, Googlebot pot trigar setmanes a descobrir-te.
Com diagnosticar-ho a Search Console, pas a pas
Google Search Console és gratuïta i és l'única eina que et dona la versió oficial de Google sobre l'estat de la teva web. Si no la tens configurada, és el primer que has de fer —abans de qualsevol altra cosa.
Quan faig una auditoria d'indexació, segueixo sempre aquest ordre:
Indexació → Pàgines: Aquí veus el resum de pàgines indexades i no indexades, agrupades per motiu. Clica a cada motiu (noindex, rastreig bloquejat, pàgina duplicada sense canonical, pàgina redirigida…) per veure quines URLs concretes estan afectades. El motiu que apareix amb més URLs és normalment el problema principal.
Inspecció d'URL: Introdueix qualsevol URL concreta per saber si està indexada, quan es va rastrejar per última vegada i si hi ha errors de renderització. Molt útil per confirmar si un canvi que acabes de fer ja ha estat processat per Google. Si la pàgina no està indexada, et dirà exactament per quin motiu.
Configuració → Robots.txt: Comprova que el fitxer no bloqueja res que no hauria de bloquejar. Presta atenció especial a si hi ha un
Disallow: /o bloqueigs de carpetes crítiques com/wp-content/.Sitemaps: Verifica que el sitemap.xml està enviat i que Google l'ha processat sense errors. Un sitemap que inclou URLs amb noindex o que retornen 404 és contraproduent: li estàs dient a Google que visiti pàgines que no vols que indexi, o que ja no existeixen.
El que sovint descobreixo en fer aquest procés és que no hi ha un sol problema, sinó diversos alhora. Un noindex que amaga un problema de contingut prim, que al seu torn amaga URLs duplicades. Resoldre només la capa visible no soluciona res a llarg termini.
Solucions per ordre de prioritat
Un cop tens el diagnòstic, actua en aquest ordre. No té sentit treballar el contingut si hi ha un noindex actiu, ni enviar el sitemap si el robots.txt bloqueja el rastreig.
| Prioritat | Problema | Solució concreta | Temps d'efecte |
|---|---|---|---|
| 🔴 Immediata | Noindex actiu per error | Desactivar a Yoast/RankMath o a Ajustes → Lectura. Sol·licitar indexació a Search Console. | 1–7 dies |
| 🔴 Immediata | Bloqueig robots.txt | Corregir les regles Disallow. Verificar amb la prova de robots.txt a Search Console. | 1–7 dies |
| 🟠 Alta | Errors de servidor 5xx | Revisar logs del servidor amb l'hosting. Si és recurrent, valorar canvi de pla o proveïdor. | Variable |
| 🟠 Alta | Sitemap no enviat o amb errors | Generar un sitemap net (sense 404 ni noindex) i enviar-lo a Search Console. | 1–2 setmanes |
| 🟡 Mitjana | URLs duplicades sense canonical | Afegir etiqueta canonical a totes les variants. Revisar configuració de filtres i paràmetres. | 2–4 setmanes |
| 🟡 Mitjana | Contingut prim | Ampliar les pàgines afectades o consolidar-les amb redirects 301 cap a pàgines més completes. | 4–8 setmanes |
Després de cada correcció, usa Inspecció d'URL → Sol·licita la indexació per avisar Google que hi ha hagut un canvi. No és una garantia de res, però en webs petites i mitjanes sol accelerar el procés.
Errors reals que veig a webs catalanes
Més que teoria, aquí van situacions concretes que apareixen una i altra vegada en auditories:
Restaurants del Born i Gràcia que canvien de web: Estrenen domini nou, el dissenyador els fa una web preciosa, i ningú configura els redireccionaments 301 de l'antic domini. Google perd tot el rastre: autoritat, historial, pàgines indexades. He vist casos on el tràfic orgànic cau un 70–80% d'un dia per l'altre. La solució és senzilla, però cal fer-la abans de canviar el domini, no després.
Comerços de Girona amb catàlegs de proveïdor: Importar les descripcions de producte directament del proveïdor és ràpid, però aquell mateix text ja existeix en desenes d'altres webs. Google no indexa contingut duplicat que no aporta res nou. La solució no és escriure més, és escriure diferent: afegir context local, casos d'ús específics, valoracions reals de clients.
Clíniques de Tarragona amb pàgines de serveis ocultes: Pàgines de tractaments o especialitats que el dissenyador va marcar com a «privada» o «esborrany» durant el desenvolupament i mai es van publicar correctament. Accessibles per a l'usuari si sap l'URL, però amb noindex actiu per al robot. El resultat: pàgines que semblen publicades però que Google mai veurà.
E-commerce de Sabadell amb filtres sense controlar: Una botiga de roba amb filtres per talla, color i temporada pot generar milers d'URLs úniques. Sense canonical o sense bloqueig selectiu al robots.txt, el pressupost de rastreig de Google es dilueix en pàgines sense valor i les pàgines importants —les de categoria i producte principals— queden sense indexar o s'indexen amb molt poca freqüència.
Si vols saber exactament per quina causa Google no indexa les teves pàgines, demana'ns una revisió gratuïta. En menys de 48 hores t'expliquem on és el problema i quin és el primer pas per solucionar-lo. Treballem amb negocis de Barcelona, Girona, Tarragona, Lleida i arreu de Catalunya.
Preguntes freqüents
Quant tarda Google a indexar una pàgina nova?
En webs consolidades amb autoritat, pot ser qüestió d'hores o 1–3 dies. En webs noves sense backlinks ni historial, entre 2 i 8 setmanes. Enviar el sitemap i sol·licitar la indexació manualment a Search Console és sempre el primer pas per accelerar-ho.
Puc forçar Google a indexar la meva web?
No pots obligar-lo, però pots sol·licitar-ho. A Search Console, entra a Inspecció d'URL, introdueix la URL i clica «Sol·licita la indexació». Google ho processa normalment en 1–7 dies per a webs petites. Per a webs grans, la millor estratègia és tenir un sitemap net i backlinks de qualitat que accelerin el rastreig natural.
Per què Google indexa algunes pàgines i d'altres no?
Google prioritza pàgines amb contingut original i de valor. Pàgines duplicades, amb contingut prim, errors de servidor o etiquetes noindex actives solen quedar fora de l'índex. Search Console t'indica el motiu exacte per a cada URL afectada, cosa que fa el diagnòstic molt més ràpid del que sembla.