Pàgina descoberta però no indexada: per què passa i com ho soluciono
Obres Google Search Console, vas a l'apartat d'indexació i trobes un munt de pàgines amb l'estat "Descoberta: pendent d'indexació". La primera temptació és clicar «Sol·licita la indexació» i esperar. Mal camí. He vist aquesta situació desenes de vegades —en una botiga de roba de Sabadell, en un despatx d'advocats de Barcelona, en una clínica dental de Tarragona— i gairebé mai es resol sol. El que sí funciona és entendre per què passa i actuar en l'ordre correcte.
Què vol dir exactament aquest estat?
Google fa dues coses separades: descobrir una URL i indexar-la. Descobrir vol dir que Googlebot ha vist l'adreça —via sitemap, via un enllaç intern o extern— però encara no ha anat a llegir-ne el contingut. Indexar vol dir que l'ha llegit, valorat i decidit incloure-la als resultats de cerca.
Quan una pàgina apareix com a «descoberta però no indexada», Googlebot sap que existeix però ha decidit posposar-ne la visita. No és un error tècnic en si mateix: és una decisió de prioritat. I aquí és on cal entendre per què Google pren aquesta decisió.
| Estat a Search Console | Descoberta: pendent d'indexació |
|---|---|
| Anglès | Discovered – currently not indexed |
| On trobar-ho | Search Console → Indexació → Pàgines → filtra per motiu |
| Causa més freqüent | Crawl budget insuficient o senyal de qualitat baix |
| Temps de resolució típic | 1–4 setmanes un cop aplicades les correccions |
Fixat en la diferència amb l'estat «Rastreada: pendent d'indexació»: en aquell cas Googlebot ha visitat la pàgina i ha decidit no indexar-la —problema de qualitat de contingut. En el cas de «Descoberta», ni tan sols ha passat a llegir-la. Sovint és un problema d'arquitectura i prioritat, no de text.
Per què Google no rastreja la pàgina?
Rarament hi ha una sola causa. El que em trobo habitualment és una combinació de dos o tres factors simultanis. Aquí els principals, ordenats per freqüència real:
Crawl budget esgotat per URLs innecessàries
El crawl budget és el nombre de pàgines que Googlebot està disposat a rastrejar al teu domini en un període de temps. Quan aquest pressupost s'esgota en pàgines sense valor, les pàgines importants queden sense rastrejar.
Un cas típic: una botiga de moda de Sabadell amb 800 productes reals però 4.000 URLs indexables perquè els filtres de talla, color i preu generen combinacions infinites sense noindex ni canonical. Googlebot arriba al límit abans d'arribar als productes que importa indexar. Com ho detectes: a Search Console, ves a Configuració → Estadístiques de rastreig. Si el nombre de pàgines rastreades per dia és molt inferior al total de pàgines del web, tens un problema de crawl budget.
Autoritat de domini insuficient
Google prioritza el rastreig de webs amb bona reputació. Un restaurant nou de Gràcia sense cap backlink extern pot trigar setmanes a veure indexades totes les seves pàgines, fins i tot si el contingut és bo. No és un càstig: és que Googlebot té milions de webs a rastrejar i prioritza els que considera més fiables. La solució aquí no és tècnica; és aconseguir primers enllaços de qualitat.
Estructura d'enllaços interns feble
Si la pàgina afectada no rep cap enllaç intern des d'altres pàgines del web, Google la considera poc rellevant. El cas més habitual que veig: una clínica de Tarragona crea una pàgina nova de servei —per exemple, «ortodoncia invisible»— però no l'enllaça des del menú, des de la pàgina d'inici ni des de cap article del blog. Googlebot la troba al sitemap però no veu cap senyal intern d'importància.
Contingut que Google no considera prioritari
Des de les actualitzacions d'utilitat de contingut, Google rastreja amb menys urgència pàgines primes o molt similars a d'altres del mateix domini. Una pàgina de servei de 150 paraules sense estructura, sense resposta clara a cap pregunta real de l'usuari, té moltes probabilitats d'acabar en aquest estat. I si tens dues pàgines que cobreixen el mateix tema amb paraules lleugerament diferents, Google pot decidir no rastrejar-ne cap de les dues amb prioritat.
Com solucionar-ho: ordre d'actuació real
Aquí és on la majoria d'articles fallen: et diuen «millora el contingut i sol·licita la indexació» sense dir-te en quin ordre ni per on començar. Aquest és el procés que segueixo:
Neteja el sitemap XML (dia 1). Comprova que no conté URLs amb errors 404, redireccions 301, etiquetes
noindexo pàgines de paginació. Eines com Screaming Frog o Sitebulb ho fan en minuts. Un sitemap brut és el sabotejador silenciós de la indexació.Bloqueja URLs de baixa qualitat (dies 2–5). Afegeix
noindexa pàgines de filtres, etiquetes, resultats de cerca interna i paginació profunda. En e-commerces, aquest pas sol tenir el major impacte perquè allibera crawl budget de cop. Si tens dubtes sobre quines pàgines bloquejar, pregunta't: «Algú buscaria exactament aquesta URL a Google?» Si la resposta és no, aplicanoindex.Reforça els enllaços interns (dies 3–7). Afegeix almenys 2–3 enllaços des de pàgines amb autoritat —inici, categories principals, articles del blog amb tràfic— cap a cada pàgina afectada. No és opcional: és el senyal més directe que li dones a Google sobre la importància d'una pàgina. Si no hi ha cap pàgina del teu web que apunti a la URL afectada, per a Google és com si no existís.
Millora el contingut de les pàgines afectades (dies 5–14). Assegura't que cada pàgina important té almenys 400–500 paraules útils, respon una pregunta real de l'usuari i és clarament diferent d'altres pàgines del teu web. Si dues pàgines cobreixen el mateix tema, fusiona-les en una de sola i redirigeix la URL antiga.
Sol·licita la indexació manual (un cop fets els passos anteriors). A Search Console, utilitza l'eina d'inspecció d'URL i clica «Sol·licita la indexació». Fes-ho després de les millores, mai abans. Per a volums grans de pàgines, actualitza la data del sitemap i torna a enviar-lo des de Search Console.
Treballa els backlinks externs (paral·lel o posterior). Un o dos enllaços de qualitat cap a les pàgines afectades —des d'un directori sectorial, un article de premsa local o un col·laborador del sector— poden accelerar significativament el rastreig, especialment si el domini és relativament nou.
Errors que ho fan pitjor
Aquests són els errors que veig repetidament, independentment de si el negoci és un comerç de Girona o una consultoria de l'Eixample:
- Sol·licitar indexació sense corregir la causa. El més freqüent. Google rep la sol·licitud, comprova que res ha canviat i la ignora. Passats uns dies, la pàgina torna al mateix estat. És com trucar al metge sense explicar-li els símptomes.
- Sitemap inflat amb URLs sense valor. Pàgines de «gràcies per la teva compra», perfils d'usuari, resultats de cerca interna o URLs amb paràmetres UTM. Cada URL innecessària al sitemap és soroll que dificulta el rastreig de les que importen.
- Paginació sense gestionar. Categories amb /page/2, /page/3… fins a /page/47 que consumeixen crawl budget sense aportar valor. La solució habitual és
noindexa partir de la pàgina 2. - Canonical incorrecte o absent en variants de producte. En e-commerces, cada variant (talla S, M, L; color vermell, blau) pot generar una URL quasi idèntica. Sense canonical apuntant a la URL principal, Google veu contingut duplicat i rastreja tot el conjunt amb menys prioritat.
- Confondre «descoberta» amb «rastreada» no indexada. Les causes i les solucions no són les mateixes. Si apliques la solució equivocada, perds temps i no avances.
Quan has d'actuar avui mateix?
| Situació | Urgència | Primera acció |
|---|---|---|
| Pàgines de serveis o productes principals afectades | 🔴 Alta | Enllaços interns + sol·licitud manual avui |
| Desenes o centenars de pàgines afectades | 🔴 Alta | Auditoria de crawl budget i neteja de sitemap |
| Web nou (menys de 6 mesos) amb poques pàgines | 🟡 Mitjana | Backlinks + contingut de qualitat + paciència |
| Pàgines secundàries (blog antic, arxius) | 🟢 Baixa | Espera 3–4 setmanes; si persisteix, revisa qualitat |
La situació que requereix acció més urgent és quan les pàgines afectades són les de serveis o productes principals. Ho he vist amb una clínica estètica de Tarragona que tenia les pàgines de tractaments en aquest estat durant dos mesos sense saber-ho. Quan vam corregir l'arquitectura interna i vam netejar el sitemap, el tràfic orgànic va millorar de forma notable en les setmanes següents. Cada setmana que una pàgina clau no s'indexa és tràfic que va a parar a la competència.
Si vols saber exactament quantes pàgines del teu web estan en aquest estat i quines necessiten atenció urgent, demana'ns una revisió inicial gratuïta de Search Console. En menys de 48 hores et diem on és el problema real i per on has de començar.
Preguntes freqüents
Quant de temps triga Google a indexar una pàgina nova?
En webs consolidats amb bona autoritat, pot ser qüestió de dies. En webs nous o amb poc tràfic, pot trigar entre 2 i 8 setmanes. Sol·licitar la indexació manualment a Search Console pot accelerar el procés, però només és efectiu si el contingut i l'estructura estan en ordre. Si sol·licites la indexació d'una pàgina amb problemes, Google simplement la torna a posar a la cua.
Puc forçar Google a indexar una pàgina?
No del tot. Pots sol·licitar la indexació via Search Console, però Google decideix si la indexa i quan. El que sí pots controlar és millorar les condicions: contingut útil i diferenciat, bons enllaços interns, sitemap net i, si és possible, algun backlink extern de qualitat apuntant a la pàgina.
Quina diferència hi ha entre «descoberta» i «rastreada» però no indexada?
«Descoberta» vol dir que Google sap que la URL existeix però no l'ha visitada —problema de prioritat de rastreig. «Rastreada» significa que Googlebot ha llegit la pàgina i ha decidit no indexar-la, sovint perquè el contingut no és prou útil o és molt similar a una altra pàgina del mateix web. El primer es resol amb arquitectura; el segon, amb millora de contingut.
El crawl budget afecta webs petits?
En webs amb menys de 500–1.000 pàgines, el crawl budget rarament és el problema principal. Si tens un web petit amb moltes pàgines no indexades, el problema sol ser de qualitat de contingut, d'autoritat de domini o d'estructura d'enllaços interns feble. Comença per revisar aquests tres factors abans de preocupar-te pel crawl budget.
Haig de preocupar-me si el meu web és nou?
És normal que un web nou trigui a indexar totes les seves pàgines. El que pots fer és centrar-te en contingut de qualitat, aconseguir els primers backlinks i assegurar-te que l'estructura interna és clara i que el sitemap és net. Amb bones pràctiques, la indexació millora progressivament en 3–6 mesos. Si passats 6 mesos encara tens pàgines importants en aquest estat, cal revisar-ho en profunditat.