I parametri URL creano problemi di indicizzazione

Gary Illyes, Analyst di Google, ha evidenziato una problematica importante per i web crawler: i parametri degli URL. Durante un recente episodio del podcast di Google Search Off The Record, Illyes ha spiegato come i parametri possano creare un numero infinito di URL per una singola pagina, causando inefficienze nel processo di scansione. Illyes ha […]

Gary Illyes, Analyst di Google, ha evidenziato una problematica importante per i web crawler: i parametri degli URL.

Durante un recente episodio del podcast di Google Search Off The Record, Illyes ha spiegato come i parametri possano creare un numero infinito di URL per una singola pagina, causando inefficienze nel processo di scansione.

Illyes ha affrontato gli aspetti tecnici, l’impatto SEO e le possibili soluzioni. Ha anche discusso degli approcci passati di Google e ha lasciato intendere soluzioni future.

Queste informazioni sono particolarmente rilevanti per i siti di grandi dimensioni o di e-commerce.

Il Problema degli URL Infiniti

Illyes ha spiegato che i parametri degli URL possono creare un numero praticamente infinito di URL per una singola pagina.

Ha dichiarato:

“Tecnicamente, è possibile aggiungere un numero praticamente infinito di parametri a qualsiasi URL, e il server semplicemente ignorerà quelli che non alterano la risposta.”

Questo crea un problema per i crawler degli motori di ricerca.

Anche se queste varianti possono condurre allo stesso contenuto, i crawler non possono saperlo senza visitare ciascun URL. Questo può portare a un uso inefficace delle risorse di scansione e a problemi di indicizzazione.

Siti di E-commerce i Più Colpiti

Il problema è diffuso tra i siti di e-commerce, che spesso utilizzano parametri degli URL per tracciare, filtrare e ordinare i prodotti.

Per esempio, una singola pagina prodotto potrebbe avere molteplici varianti di URL per diverse opzioni di colore, taglie o fonti di riferimento.

Illyes ha evidenziato:

“Poiché è possibile aggiungere parametri degli URL… significa anche che quando stai facendo la scansione, e la scansione nel vero senso del termine come ‘seguire i link’, allora tutto – tutto diventa molto più complicato.”

Contesto Storico

Google ha affrontato questa problematica per anni. In passato, Google ha offerto un tool per i parametri degli URL in Search Console per aiutare i webmaster a indicare quali parametri fossero importanti e quali potessero essere ignorati.

Tuttavia, questo strumento è stato deprecato nel 2022, lasciando alcuni SEO preoccupati su come gestire questa questione.

Potenziali Soluzioni

Anche se Illyes non ha offerto una soluzione definitiva, ha lasciato intendere possibili approcci:

  1. Google sta esplorando modi per gestire i parametri degli URL, potenzialmente sviluppando algoritmi per identificare gli URL ridondanti.
  2. Illyes ha suggerito che una comunicazione più chiara da parte dei proprietari del sito web sulla struttura degli URL potrebbe aiutare. “Potremmo semplicemente dir loro, ‘Okay, utilizzate questo metodo per bloccare questa area degli URL’,” ha notato.
  3. Illyes ha menzionato che i file robots.txt potrebbero essere utilizzati in modo più esteso per guidare i crawler. “Con il file robots.txt, è sorprendentemente flessibile ciò che si può fare,” ha detto.

Implicazioni per l’SEO

Questa discussione ha diverse implicazioni per l’SEO:

  1. Budget di Scansione: Per siti di grandi dimensioni, la gestione dei parametri degli URL può aiutare a conservare il budget di scansione, garantendo che le pagine importanti vengano effettivamente scansionate e indicizzate.
  2. Architettura del Sito: Gli sviluppatori potrebbero dover rivalutare come strutturare gli URL, in particolare per i siti di e-commerce di grandi dimensioni con numerose varianti di prodotto.
  3. Navigazione Faceted: I siti di e-commerce che utilizzano la navigazione faceted dovrebbero prestare attenzione a come questa influenza la struttura degli URL e la scansione.
  4. Tag Canonici: Utilizzare i tag canonici può aiutare Google a capire quale versione dell’URL dovrebbe essere considerata quella primaria.

In Sintesi

La gestione dei parametri degli URL rimane complicata per i motori di ricerca.

Google sta lavorando per risolverla, ma è comunque consigliabile monitorare le strutture degli URL e utilizzare strumenti per guidare i crawler.