I rischi della over-optimization (Seconda Parte)
A nostro parere esiste solo un tipo della cosiddettaover-optimization che può riguardare i fattorion-page; si tratta della keyword density.
Uno dei parametri che Google valuta per il ranking di unapagina nelle SERPs è la keyword density,ovverosia la frequenza di una keyword (o keyphrase)all'interno di un documento. Mettiamo che la keyword inoggetto sia "lardo di colonnata"; una paginasarà posizionata nelle SERPs meglio di altre se - aparità degli altri fattori - conterrà una'giusta' frequenza di questo termine rispetto allealtre parole utilizzate.
Google non ha mai dichiarato (per ovvie ragioni) quale siaquesta percentuale o quale sia il range percentualeche permetta di far parlare di una frequenza"corretta". A nostro parere la percentuale non deveeccedere il 5% dei termini di una pagina anche se moltiparlano anche del 10, 12%. Di fatto, è plausibile chepagine che contengano una frequenza eccessiva di un terminesignificativo (e quindi 'al netto' di preposizioni,articoli, avverbi etc.) siano considerate da Google'innaturali' e subiscano quindi un banning o unapenalizzazione. Questo esempio, citato in molti forum comeesempio di over-optimization, a nostro giudizioè una pratica "black hat"; che differenzac'è tra utilizzare font dello stesso colore delbackground di una pagina ed 'esagerare' conl'utilizzo di una keyword all'interno di undocumento? Nessuna. Quindi, in questo caso, non si tratta diuna over-optimization, ma di una bad-optimization,ovverosia di un utilizzo sbagliato (e quindi illegittimo) ditecniche corrette.
Più interessante è il caso dei fattorioff-page. A nostro parere, il principale fattoreoff-page in un sito è il suo inboundlinking, che - di fatto - possiamo considerare lavera novità introdotta da Google nel 1998.L'essenza dell'inbound linking èquesta: a parità di fattori on-page, vengonoposizionati meglio quei siti che sono più linkati(quantità) e linkati da siti già considerati'validi' e che siano attinenti con i contenuti delsito linkato (qualità).
A nostro parere l'inbound linking puòessere anche controproducente.
Come sempre, ciò che conta per Google è la'naturalezza'; la regola aurea è (in teoria)quello di non fare nulla per l'indicizzazione che nonsi sarebbe fatto se i motori di ricerca non esistessero;una teoria che è certamente di difficile attuazione,ma che ha una logica fondata.
Torniamo dunque ai link. Se è vero che un sitoè tanto meglio posizionato quanto più (emeglio) è linkato, è anche vero che questi linknon debbono apparire 'artificiali' agli occhi dellospider (di Google o di altri motori di ricerca). Uno deipossibili fattori che può determinarel'artificialità dei link è il timing dilinking;
se un sito appena nato o comunque appena indicizzato da unmotore registra un improvviso aumento dei link in entrata(inbound link), è probabile che questo venga vistocome 'attività artificiale'; èinfatti improbabile che in un breve range temporale lo stessosito sia linkato contemporaneamente (e'naturalmente') da molti siti. Il linking e/oil crosslinking naturali tipicamente richiedono moltotempo perché inizialmente sono pochi i siti disposti alinkare siti che sono nati da poco, che non hanno una storiaetc.
Un altro fattore di fondamentale importanza è ladominazione dei link; la presenza di nomi ripetuti èsicuramente ritenuto un indice di'artificialità' e quindi depone a sfavore peril sito linkato. Sono infine di fondamentale importanza anchele caratteristiche dei siti di provenienza. Nel caso in cuiun sito sia linkato da numerosi siti aventi le medesimecaratteristiche (codice html identico o simile, stessa classedi IP o addirittura medesimo IP, etc.), è evidente cheun motore di ricerca considererà questi link'artificiali', anche se attivati in un ampio lasso ditempo e con diversi nomi.
Questa è la situazione attuale (ipotizzata,ovviamente). Possiamo ora chiederci se questa strategia dipenalizzazione adottata dai motori di ricerca (e, inprimis, da Google) sia corretta.
A nostro parere è corretta solo la penalizzazionenel caso in cui ci sia un eccessivo numero di keyword in unapagina, e per un semplice motivo; se fosse vero che unsito può essere penalizzato da bad-linking (come neicasi succitati), allora vuol dire che chi voglia penalizzareun sito concorrente può farlo tranquillamente e ainsaputa del sito che si vuole penalizzare. Poniamo che ilsito A sia concorrente del sito B; A potrebbe, da un proprionetwork di siti già penalizzati e quindi considerati'cattivi', eseguire un'opera di linking verso ilsito B e in questo modo penalizzarlo.
A nostro parere sarebbe più corretto - da parte di unmotore di ricerca - 'sospendere il giudizio' sui linkche appaiono artificiali e 'tenere per buoni' soloquelli che appaiono essere naturali.
Ancora una volta, appare chiaro come non esista unalgoritmo o un insieme di algoritmi perfetto per indicizzaree posizionare un sito. Anche variabili nate con unagiustificazione si rivelano essere deboli e possono esseresfruttate per influire sul posizionamento di siti terzi.
I fattori off-page, così tanto osannati e consideratinegli ultimi anni, si rivelano dunque ambigui. Di fatto,anche la loro origine non è ben giustificata.Chidice che un sito che è più linkato sia miglioredi un sito che non lo sia? E' come credere che ilvestito migliore sia quello che compra piùpubblicità, oppure che il politico migliore sia quellopiù votato, oppure che la persona piùintelligente sia quella che intrattiene più relazionicon amici e conoscenti.
In futuro (come vedremo meglio nella prossimalezione) i motori di ricerca dovranno prendere semprepiù spazio i fattori on-page. L'utilizzo difattori off-page non è altro che una 'resa' daparte di un motore di ricerca nella sua capacità divalutare la bontà di un sito. Poniamo che il sitoA abbia fatto opera di linking artificiale(acquistandoli oppure costruendo dei siti ad arte perautolinkarsi); questa è sicuramente una strategia"black hat"; ma ciò vuol dire anche che ilsito in questione non è di qualità?Assolutamente no. Per questo i fattori on-page rimangono difatto i più importanti.
Probabilmente il passaggio tanto aspirato (da parte non solodi Google, ma anche degli altri player) da unaversione lessicale a una versione semanticarappresenterà la possibilità di superarel'impasse qualitativa (di quantità neabbiamo fin troppa) in cui i motori di ricerca si trovanoattualmente.
- Articolo precedente Il ritorno dell’importanza dei contenuti; e dei contenuti aggiornati (i blog)
- Articolo successivo I rischi della over-optimization (Prima Parte)