
Un sito non è mai un progetto “finito”. Cresce, invecchia, subisce piccoli cambiamenti dovuti a mode tecniche e grafiche, incorpora contenuti variegati, disomogenei. Dopo qualche anno di vita tende a perdere coesione e, a volte con essa, traffico organico e conversioni.
Ottimizzarlo, ossia fare l’attività SEO nuovamente o per la prima volta, significa riportarlo a lavorare per la nostra attività: intercettare ricerche utili, trasformare visitatori in contatti, far sì che ogni pagina abbia un compito chiaro e piuttosto misurabile.
È un lavoro interdisciplinare che unisce analisi dei dati, SEO, copywriting, miglioramento dell’user experience e sviluppo web.
Due strade possibili, un unico obiettivo
Durante la nostra lunga attività di consulenti abbiamo provato a utilizzare due approcci. Quello radicale è il nostro preferito, ma riusciamo spesso a ottenere buoni risultati anche con quello conservativo.
Approccio radicale – si ridisegna il sito “da capo”, progettando la nuova architettura intorno alle keyword che le persone cercano ogni mese su Google e più in generale intorno alle loro esigenze. Questa via garantisce, nel medio periodo, il maggior incremento di traffico qualificato, ma richiede mesi di lavoro e un potere decisionale pieno da parte del team SEO.
Approccio conservativo – si lavora, invece, sull’architettura stabilita da altri, massimizzandone il potenziale. È più rapido, costa meno in termini di budget e governance, ma le opportunità di crescita organica sono inevitabilmente inferiori.
Il metodo radicale nel dettaglio
Strumenti indispensabili prima di cominciare
Per evitare passi falsi servono: un crawler (ad esempio Screaming Frog), uno strumento per lo studio keyword e l’analisi del profilo link (Semrush o equivalente), l’accesso a Google Analytics 4, se installato, e l’accesso alla Search Console.
Senza questi quattro strumenti non è possibile progettare accuratamente, né decidere con cognizione di causa. Quando ce li abbiamo, possiamo iniziare.
1. Inventario dei contenuti
Con Screaming Frog generiamo un foglio di lavoro che elenca almeno ogni URL, il relativo title HTML e lo stato di indicizzabilità della pagina (banalmente se può essere letto o meno dai motori). Questa fotografia racconta il sito com’è davvero, non come pensiamo che sia.
2. Analisi del traffico
Integriamo l’inventario con le API di Analytics e Search Console per affiancare a ciascuna pagina le visualizzazioni annue, i tassi di conversione, i clic e le impressioni su Google. Ordiniamo poi le pagine ad esempio per tasso di conversione, le valutiamo qualitativamente, tutte o in parte, a seconda di quantità ed energie, e infine decidiamo se mantenerle, migliorarle o eliminarle.
3. Analisi del profilo link
Attraverso Semrush misuriamo quali URL ricevono backlink rilevanti. Conservare o reindirizzare queste pagine è obbligatorio se non vogliamo disperdere la nostra autorità SEO.
4. Studio keyword
Lo studio delle parole chiave che dobbiamo fare è “a tutto campo”: include l’offerta centrale della nostra azienda (keyword transazionali legate a prodotti, servizi e corsi) e i temi di interesse del nostro pubblico ideale, legati anche in senso lato alla nostra offerta (keyword informazionali). Utilizziamo il brainstorming, i dati storici della Google Search Console e i volumi misurati con Semrush; poi raggruppiamo le query affini in cluster, gruppi, tematici. La stessa procedura va ripetuta per ogni lingua o mercato rilevante.
5. Progettazione dell’architettura
A ogni cluster assegniamo una tipologia di pagina: “base”, “servizio”, “corso”, “informativa”, “madre” o “portfolio”. Colleghiamo il nuovo al vecchio: se esiste già una pagina pertinente, ne valutiamo il riuso; altrimenti pianifichiamo una URL nuova, pensando fin da ora al percorso di navigazione interno. Consegniamo tutto ai copywriter per la scrittura dei testi e ai web designer per lo sviluppo della nuova versione del sito. I web designer dovranno lavorare rigorosamente su una versione di staging.
6. Sviluppo e ottimizzazione on-page
Mentre il sito viene sviluppato, prepariamo titoli, meta description, H1, URL, voci di menu, link interni e – se utili – dati strutturati. Ogni indicazione deriva direttamente dallo studio keyword appena concluso.
7. Attività tecniche propedeutiche alla messa online
Il “salvataggio” del traffico passa soprattutto dai redirect 301: mappiamo uno per uno i vecchi URL verso le nuove destinazioni e li inseriamo, per esempio, nel file .htaccess prima della messa online. Curiamo poi sitemap, robots.txt, il tracciamento su Google Analytics 4 e, se il progetto è multilingue, attributi lang e hreflang.
8. Verifiche post-pubblicazione
Dopo la messa online, ossia dopo la sostituzione del vecchio sito con la nuova versione di staging, controlliamo che i redirect funzionino, che non esistano 404 orfani, che i dati di traffico vengano registrati correttamente e che title e URL corrispondano alle specifiche che abbiamo – magari di nuovo con Screaming Frog.
La via conservativa, passo passo
Quando l’architettura del nuovo sito viene disegnata da un altro team – magari l’agenzia di brand o il reparto UX interno – la SEO entra in gioco con un margine di manovra ridotto ma ancora decisivo.
L’obiettivo è ottenere il massimo potenziale da una struttura che non possiamo cambiare. Per farlo utilizziamo un flusso di lavoro in otto tappe che, pur essendo più “leggero” del metodo radicale, richiede comunque rigore. In realtà, è più faticoso e dà meno soddisfazione 🙂
1. Inventario dei contenuti esistenti
La fotografia del sito vivo resta il primo passo. Con Screaming Frog esportiamo l’elenco completo degli URL, i title HTML e lo stato di indicizzabilità. Nel foglio di lavoro aggiungiamo fin da subito due colonne libere dove annoteremo le decisioni finali: tenere, rimuovere o reindirizzare la pagina.
2. Integrazione dei dati di traffico
Grazie all’accesso API di Screaming Frog importiamo per ciascun URL le visualizzazioni e le conversioni degli ultimi dodici mesi. Così individuiamo rapidamente le pagine che, pur essendo magari brutte o disperse nei menu, generano ancora valore: quelle non si toccano senza un’alternativa altrettanto performante.
3. Integrazione del profilo link
Con Semrush analizziamo i backlink e copiamo nell’inventario le URL che ricevono link di qualità. Anche se la nuova mappa del sito non prevede una corrispondente identica, dobbiamo garantire dei buoni redirect 301.
4. Analisi qualitativa
A questo punto filtriamo e ordiniamo il foglio: possiamo ad esempio visualizzare prima le pagine con traffico e link, poi quelle con traffico ma senza link, infine il resto. Per ogni riga ci chiediamo se il contenuto è:
-
coerente con il nuovo focus del sito
-
utile al pubblico ideale
-
aggiornabile senza eccessivo sforzo.
Solo le pagine che superano tutti e tre i criteri meritano di “salire a bordo”.
5. Mappatura nuovo ↔ vecchio
Il team di progetto mi consegna l’elenco delle pagine previste per il nuovo sito. Copio quel file in un secondo foglio e, con una formula di VLOOKUP, collego ogni URL futura alla vecchia pagina da cui erediterà contenuti o traffico. Le righe prive di corrispondenza evidenziano buchi di contenuto su cui avviare un confronto con UX e copywriter.
6. Micro-studio keyword per singola pagina
Nel metodo radicale raggruppiamo query in cluster e plasmiamo l’architettura; qui facciamo l’opposto: per ogni pagina già decisa analizziam studiamo le keyword primarie e secondarie, con i loro volumi, e le utilizziamo per scrivere gli elementi SEO.
7. Ottimizzazione
Dato che i layout sono già definiti, lavoriamo con il team di sviluppo per migliorare l’esistente per quanto possibile, ad esempio inserendo l’h1 o i breadcrumb cliccabili. Inoltre scriviamo gli elementi SEO, sulla base dello studio al punto precedente, e ci occupiamo del tracciamento con Google Analytics 4.
8. Supporto al go-live
Alla vigilia della pubblicazione carichiamo il file dei redirect 301, controlliamo che la sitemap XML elenchi solo URL indicizzabili, mettiamo il noindex sulle pagine di servizio e facciamo un crawl completo alla ricerca di errori 404. Subito dopo la messa online facciamo ulteriori controlli e monitoriamo la Google Search Console.
Perché e quando sceglierla
La via conservativa è la scelta obbligata quando:
-
l’azienda ha già investito in design e UX e non vuole rimettere mano ai wireframe
-
il budget SEO è limitato ma serve comunque preservare traffico e lead
-
le decisioni strategiche passano da più stakeholder e un cambio di architettura bloccherebbe il progetto per mesi.
Lavorare così significa dunque concentrare le energie sulle pagine che incidono sul fatturato: salvare ciò che funziona, rafforzare ciò che può crescere, tagliare ciò che non parla più al cliente ideale.
Trappole da evitare
Un errore comune è dedicare troppo tempo alla riscrittura dei testi esistenti senza prima verificarne la reale utilità. Ossia senza sapere che ruolo avrà quella pagina nel nuovo sito, da chi verrà letta, come verrà trovata.
Un altro è delegare i redirect al reparto IT all’ultimo minuto, senza verificare i reali URL che comporranno il sito nuovo: se mancano le corrispondenze studiate, metà del lavoro di inventario e analisi traffico andrà in fumo.
Infine, bisogna resistere alla tentazione di infilare keyword a caso: la coerenza semantica di ogni pagina con l’intento di ricerca resta la bussola che guida ogni scelta.
In ogni caso…
Parti sempre da qui: mappa i contenuti esistenti con sguardo aperto, senza bias di ancoraggio, analizza per ogni URL il traffico e i backlink, fai uno studio keyword pagina per pagina e non dimenticare i redirect 301.