Illyes di Google continua a mettere in guardia sui problemi legati ai parametri nell’URL.
Gary Illyes di Google continua ad avvisare riguardo ai problemi legati ai parametri URL Gary Illyes di Google ha recentemente evidenziato un problema SEO ricorrente su LinkedIn, ribadendo preoccupazioni che aveva precedentemente espresso in un podcast di Google. Il problema? I parametri URL causano difficoltà ai motori di ricerca durante la scansione dei siti web. […]
Gary Illyes di Google continua ad avvisare riguardo ai problemi legati ai parametri URL
Gary Illyes di Google ha recentemente evidenziato un problema SEO ricorrente su LinkedIn, ribadendo preoccupazioni che aveva precedentemente espresso in un podcast di Google.
Il problema? I parametri URL causano difficoltà ai motori di ricerca durante la scansione dei siti web.
Questo problema è particolarmente sfidante per i siti di grandi dimensioni e gli store online. Quando vengono aggiunti diversi parametri a un URL, può risultare in numerose diverse pagine web che tutte portano allo stesso contenuto.
Ciò può ostacolare i motori di ricerca, riducendo la loro efficienza nella scansione e nell’indicizzazione corretta dei siti.
Il dilemma dei parametri URL
Sia nel podcast che nel post di LinkedIn, Illyes spiega che gli URL possono ospitare un numero infinito di parametri, ognuno creando un URL distinto anche se tutti puntano allo stesso contenuto.
Ha scritto: “Una caratteristica interessante degli URL è che è possibile aggiungere un numero infinito (io lo chiamo fandonie) di parametri URL al percorso dell’URL, e in pratica formare nuove risorse. I nuovi URL non devono nemmeno mappare a contenuti diversi sul server, ogni nuovo URL potrebbe semplicemente servire lo stesso contenuto dell’URL senza parametri, eppure sono tutti URL distinti. Un buon esempio di questo è il parametro URL per l’aggiornamento della cache sui riferimenti JavaScript: non cambia il contenuto, ma forzerà la cache a ricaricarsi.”
Ha fornito un esempio di come un semplice URL come “/percorso/file” possa espandersi in “/percorso/file?param1=a” e “/percorso/file?param1=a¶m2=b”, potenzialmente servendo contenuti identici.
“Ognuno è un URL diverso, tutti con lo stesso contenuto,” ha osservato Illyes.
Espansione accidentale degli URL e le sue conseguenze
I motori di ricerca a volte possono trovare e cercare di analizzare pagine inesistenti sul tuo sito, che Illyes chiama “URL fake”.
Questi possono apparire a causa di cose come link relativi codificati male. Quello che inizia come un sito di dimensioni normali con circa 1.000 pagine potrebbe gonfiarsi a un milione di URL fantasma.
Questa esplosione di pagine fittizie può causare seri problemi. I crawler dei motori di ricerca potrebbero sovraccaricare i tuoi server, cercando di analizzare tutte queste pagine inesistenti.
Ciò potrebbe sovraccaricare le risorse del tuo server e far crashare il tuo sito. Inoltre, spreca il budget di scansione del motore di ricerca su pagine inutili anziché sul tuo contenuto.
Alla fine, le tue pagine potrebbero non essere analizzate e indicate correttamente, il che potrebbe danneggiare il tuo posizionamento nelle ricerche.
Illyes afferma: “A volte potresti creare questi nuovi URL fake per errore, facendo esplodere lo spazio degli URL da 1000 a un milione, eccitando i crawler che a loro volta martellano i tuoi server inaspettatamente, facendo sciogliere i tubi e i fischietti da tutte le parti. I link relativi sbagliati sono una causa relativamente comune. Ma il file robots.txt è il tuo amico in questo caso.”
Siti di e-commerce maggiormente colpiti
Il post di LinkedIn non ha specificamente individuato gli store online, ma la discussione nel podcast ha chiarito che questo problema è molto rilevante per le piattaforme di e-commerce.
Questi siti solitamente utilizzano parametri URL per gestire il tracciamento dei prodotti, i filtri e l’ordinamento.
Di conseguenza, potresti vedere diversi URL che puntano alla stessa pagina prodotto, con ciascuna variante dell’URL che rappresenta scelte di colore, opzioni di dimensioni o da dove è arrivato il cliente.
Affrontare il problema
Illyes raccomanda costantemente di utilizzare il file robots.txt per affrontare questo problema.
Nel podcast, Illyes ha evidenziato possibili soluzioni come:
– Creare sistemi per individuare gli URL duplicati
– Migliori modi per consentire ai proprietari del sito di informare i motori di ricerca sulla struttura degli URL
– Utilizzare il file robots.txt in modo più intelligente per guidare i bot dei motori di ricerca
Lo strumento deprecato dei parametri URL
Nella discussione del podcast, Illyes ha menzionato i tentativi passati di Google di affrontare questo problema, incluso lo strumento dei parametri URL ora deprecato in Search Console.
Questo strumento permetteva ai siti web di indicare quali parametri erano importanti e quali potevano essere ignorati.
Quando gli è stato chiesto su LinkedIn se potenzialmente si potesse riportare in vita questo strumento, Illyes si è mostrato scettico sulla sua efficacia pratica.
Ha dichiarato: “In teoria sì, in pratica no,” spiegando che lo strumento ha sofferto degli stessi problemi del robots.txt, ovvero che “le persone non riuscivano a capire per nulla come gestire i propri parametri.”
Implicazioni per SEO e sviluppo web
Questa discussione in corso da parte di Google ha diverse implicazioni per SEO e sviluppo web:
– Budget di scansione: Per i siti di grandi dimensioni, gestire i parametri URL può contribuire a conservare il budget di scansione, garantendo che le pagine importanti siano analizzate e indicate.
– Architettura del sito: I developer potrebbero dover riconsiderare come strutturare gli URL, in particolare per i grandi siti di e-commerce con numerose varianti di prodotto.
– Navigazione con facilità: I siti di e-commerce che utilizzano navigazioni con facilità dovrebbero tener conto di come ciò influisce sulla struttura degli URL e sulla indicizzazione.
– Tag canonici: I tag canonici aiutano Google a capire quale versione di URL deve essere considerata principale.
Perché è importante
Google sta discutendo dei problemi dei parametri URL su più canali, il che indica una preoccupazione genuina per la qualità delle ricerche.
Per gli esperti del settore, rimanere informati su questi aspetti tecnici è essenziale per mantenere la visibilità nelle ricerche.
Mentre Google lavora alle soluzioni, si consiglia una gestione proattiva degli URL e una guida efficace ai crawler.