Rastreada però no indexada: diagnòstic real i solucions que funcionen
Obres Google Search Console, vas a Indexació > Pàgines i trobes URLs amb l'estat "Rastreada, però no indexada". Googlebot ha visitat la pàgina, l'ha llegida i ha decidit no incloure-la a l'índex. Sense indexació no hi ha posicionament, i el problema pot afectar des d'una landing page clau fins a centenars de fitxes de producte. El que trobaràs aquí és el procés que segueixo per diagnosticar i resoldre aquest estat en webs reals: des d'un restaurant de Gràcia amb pàgines de menú duplicades fins a un e-commerce de Sabadell amb 600 URLs generades per filtres.
Què significa realment aquest estat
Google treballa en dues fases: rastreig (Googlebot visita la URL i llegeix el contingut) i indexació (guarda la pàgina i pot mostrar-la als resultats). "Rastreada però no indexada" confirma que la primera fase s'ha completat, però Google ha pres la decisió de no executar la segona.
Aquí hi ha una distinció que canvia tot l'enfocament: no és un error tècnic que impedeix el rastreig. És un judici. Googlebot ha dit: "He llegit això i he decidit que no mereix estar a l'índex." Pot ser per qualitat de contingut, per senyals tècnics contradictoris o per un problema de pressupost de rastreig. Identificar quin dels tres és el primer pas real.
| Estat a Search Console | Rastreada però no indexada |
|---|---|
| Procés afectat | Indexació (el rastreig funciona) |
| Causa més freqüent | Contingut de poc valor o canonical incorrecte |
| Impacte directe | La pàgina no apareix a cap resultat de Google |
| Temps de resolució típic | 2–6 setmanes un cop corregit el problema real |
Les 4 causes més freqüents
1. Contingut duplicat o quasi duplicat
En un e-commerce de moda de Sabadell que vaig auditar, tenien més de 600 URLs generades pels filtres de categoria: color, talla, temporada, preu. El contingut era pràcticament idèntic en totes. Google n'indexava una i descartava la resta. La solució no era tècnica en primera instància: calia decidir quines URLs tenien valor real per a l'usuari i configurar rel="canonical" cap a la versió principal per a totes les altres. En tres mesos, les pàgines estratègiques van recuperar visibilitat.
2. Thin content: pàgines que no responen cap intenció real
Una clínica de fisioteràpia de Tarragona tenia 15 pàgines de servei amb entre 80 i 120 paraules cadascuna, sense cap diferenciació entre elles. Google les visitava i les descartava de manera sistemàtica. El problema no era el codi: era que cap d'aquelles pàgines responia una pregunta real que un pacient pogués fer a Google. Les vam fusionar en 5 pàgines ben estructurades, amb casos clínics, preguntes freqüents i informació pràctica. En sis setmanes, totes estaven indexades i dues ja posicionaven a la primera pàgina.
3. Etiqueta canonical mal configurada
Un rel="canonical" que apunta a una altra URL és un senyal explícit: "No indexis aquesta, indexa aquella." Ho veig sovint en migracions mal executades o en temes de WordPress que afegeixen canonicals automàtics erronis. La manera més ràpida de detectar-ho: a Search Console, usa l'eina d'inspecció d'URL i mira la secció "Indexació de la pàgina". Hi veuràs la URL canònica que Google ha detectat. Si no coincideix amb la URL que estàs inspeccionant, has trobat el problema.
4. Crawl budget mal gestionat
En webs grans, Google assigna un pressupost de rastreig limitat per domini. Si el teu web genera URLs innecessàries —paràmetres de sessió, paginació sense fi, filtres sense canonical— Googlebot malgasta el pressupost en pàgines irrellevants. En un portal de serveis locals de Girona, vam detectar que el 60% del pressupost de rastreig s'anava a URLs de cerca interna. Blocar-les al fitxer robots.txt va alliberar capacitat per a les pàgines estratègiques en menys d'un mes.
Com diagnosticar-ho a Search Console
Segueix aquest ordre abans de tocar res. Fer canvis sense diagnòstic previ és la causa principal per la qual molts negocis passen mesos sense resultats:
- Exporta la llista completa. Search Console → Indexació → Pàgines → "Rastreada però no indexada" → Exportar. Classifica les URLs per tipus: productes, categories, entrades de blog, landing pages, pàgines d'arxiu. Això et permetrà identificar patrons (per exemple, si totes les URLs afectades contenen un paràmetre concret).
- Inspecció individual de les URLs prioritàries. Per a cada pàgina estratègica, usa l'eina d'inspecció d'URL. Fixa't en tres coses: (a) URL canònica detectada per Google —ha de coincidir amb la URL que inspeccionas—, (b) si hi ha etiqueta
noindexal codi font, (c) data de l'últim rastreig —si fa setmanes que no la visita, el problema pot ser de crawl budget o d'absència d'enllaços interns. - Comprova el codi font directament. A la pàgina afectada, fes
Ctrl+Ui cercanoindexicanonical. Unnoindexamagat en un meta tag o en una capçalera HTTP és fàcil de passar per alt si només mires el CMS. Ho he vist en desplegaments de staging on algú va oblidar canviar la configuració. - Avalua la qualitat del contingut. Pregunta't: aquesta pàgina respon una intenció de cerca específica? Té contingut diferencial respecte a altres URLs del mateix web? Té almenys 300 paraules amb estructura clara? Si la resposta a qualsevol d'aquestes és no, el problema és de contingut, no de codi.
- Revisa els logs de servidor si tens accés. Confirma que Googlebot visita la pàgina amb regularitat. Si no la visita des de fa setmanes malgrat tenir-la al sitemap, el problema és de crawl budget o d'enllaços interns insuficients cap a aquella URL.
Com solucionar-ho per ordre de prioritat
L'ordre importa molt. He vist negocis que porten sis mesos intentant solucionar aquest problema perquè han fet els passos al revés:
- Corregeix primer els errors tècnics obvis. Noindex accidentals i canonicals erronis són ràpids de resoldre i l'impacte és immediat un cop Google torna a rastrejar. Comprova també les capçaleres HTTP amb eines com httpstatus.io: de vegades el
noindexs'envia per capçalera i no apareix al codi font visible. - Millora o fusiona el contingut de poc valor. Si una pàgina no arriba a les 300 paraules o no respon cap intenció clara, amplia-la amb informació útil i específica, o fusiona-la amb una URL més forta via redirecció 301. No eliminis sense redirigir: perds qualsevol autoritat acumulada i generes errors 404 que deterioren l'experiència d'usuari.
- Neteja les URLs innecessàries. Bloca al
robots.txtles URLs de cerca interna, paràmetres de sessió i pàgines d'arxiu que no vols indexar. Afegeixnoindexde manera deliberada a pàgines de gràcies, panells d'usuari i categories buides. Cada URL que Google no ha de processar és pressupost de rastreig que pot anar a les pàgines que realment vols posicionar. - Reforça l'enllaçament intern. Una pàgina sense cap enllaç intern té molt poc senyal d'importància per a Google. Afegeix almenys 2–3 enllaços des de pàgines amb autoritat del teu web cap a les URLs que vols indexar. En molts casos, aquest pas sol és suficient per desbloquejar pàgines que portaven mesos sense indexar.
- Sol·licita la indexació manualment a Search Console un cop fet tot l'anterior. Fes-ho URL per URL per a les pàgines prioritàries. Per a volums grans, actualitza el sitemap XML, envia'l de nou i espera. No tornis a sol·licitar la mateixa URL cada dia: Google ho ignora i pot interpretar-ho negativament.
Errors que fan que no es resolgui
- Sol·licitar indexació sense corregir el problema de fons. És l'error més freqüent. Google tornarà a descartar la pàgina exactament igual que abans. La sol·licitud manual no sobreescriu un judici de qualitat.
- Eliminar pàgines sense redirigir-les. Un 404 no transfereix autoritat ni senyals. Sempre redirecció 301 cap a la pàgina temàticament més propera o cap a la categoria principal.
- Confondre els dos estats de Search Console. "Rastreada però no indexada" i "Descoberta però no rastreada" tenen causes i solucions completament diferents. El segon indica que Google ni tan sols ha visitat la pàgina: el problema sol ser de crawl budget o d'absència d'enllaços interns, no de qualitat de contingut.
- Generar masses URLs noves sense estratègia. Cada filtre nou en un e-commerce pot crear centenars d'URLs. Un comerç de roba de l'Hospitalet va triplicar el nombre de pàgines en un any sense cap política de canonicals. Resultat: el 70% de les fitxes de producte quedaven fora de l'índex. Defineix des del principi quines URLs vols indexar i bloca la resta.
Si tens un web a Barcelona, Girona, Lleida o qualsevol altra ciutat catalana i vols saber exactament quines pàgines estan perdent visibilitat i per quin motiu, demana'ns una auditoria SEO gratuïta. T'entregarem un informe amb les URLs afectades, la causa probable i les accions per ordre de prioritat, sense cap compromís.
Preguntes freqüents
Quant triga Google a indexar una pàgina un cop corregit el problema?
En webs amb autoritat i rastreig freqüent, pot ser qüestió de dies. En webs nous o poc enllaçats, entre 2 i 6 setmanes. Sol·licitar la indexació manualment a Search Console pot accelerar el procés, però no el garanteix si el problema de fons no s'ha resolt prèviament. He vist casos on la pàgina s'indexava en 48 hores i casos on trigava dos mesos perquè el contingut seguia sent insuficient.
Pot afectar aquest estat al posicionament de les pàgines que sí estan indexades?
Sí, indirectament. Un volum alt de pàgines de baixa qualitat consumeix crawl budget i pot fer que Google rastregi menys sovint les pàgines importants. A més, el contingut duplicat dilueix els senyals d'autoritat temàtica del domini. No és un efecte immediat ni dramàtic, però en webs grans l'acumulació sí que és perceptible.
Quina diferència hi ha entre "rastreada però no indexada" i "descoberta però no rastreada"?
"Descoberta però no rastreada" vol dir que Google sap que la pàgina existeix —per sitemap o per un enllaç— però no l'ha visitada encara. Sol ser un problema de crawl budget o de prioritat. "Rastreada però no indexada" vol dir que ja l'ha visitada i ha decidit activament no incloure-la. El diagnòstic i la solució són completament diferents: en el primer cas cal millorar l'enllaçament intern i el sitemap; en el segon, cal revisar qualitat i senyals tècnics.
Haig de preocupar-me si les pàgines afectades són arxius de dates o etiquetes de blog?
No, en general. Pàgines d'arxiu per data, etiquetes amb poc contingut o categories amb una sola entrada rarament mereixen estar a l'índex. El que recomano és afegir-hi noindex de manera deliberada per concentrar el crawl budget en les pàgines estratègiques i evitar que Google les processi innecessàriament cada vegada que rastreja el web.
Un sitemap XML ben configurat ajuda a resoldre el problema?
El sitemap ajuda Google a descobrir pàgines i a entendre quines consideres importants, però no garanteix la indexació. Si una pàgina és al sitemap i segueix sense indexar-se, el problema és de qualitat de contingut o de senyals tècnics —canonical, noindex, contingut duplicat—, no de descobriment. Resol primer el problema de fons; actualitzar el sitemap és l'últim pas, no el primer.