Federico Riva
a- a+

I rischi della over-optimization (Seconda Parte)

A nostro parere esiste solo un tipo della cosiddetta over-optimization che può riguardare i fattori on-page; si tratta della keyword density.

Uno dei parametri che Google valuta per il ranking di una pagina nelle SERPs è la keyword density, ovverosia la frequenza di una keyword (o keyphrase) all'interno di un documento. Mettiamo che la keyword in oggetto sia "lardo di colonnata"; una pagina sarà posizionata nelle SERPs meglio di altre se - a parità degli altri fattori - conterrà una 'giusta' frequenza di questo termine rispetto alle altre parole utilizzate.

Google non ha mai dichiarato (per ovvie ragioni) quale sia questa percentuale o quale sia il range percentuale che permetta di far parlare di una frequenza "corretta". A nostro parere la percentuale non deve eccedere il 5% dei termini di una pagina anche se molti parlano anche del 10, 12%. Di fatto, è plausibile che pagine che contengano una frequenza eccessiva di un termine significativo (e quindi 'al netto' di preposizioni, articoli, avverbi etc.) siano considerate da Google 'innaturali' e subiscano quindi un banning o una penalizzazione. Questo esempio, citato in molti forum come esempio di over-optimization, a nostro giudizio è una pratica "black hat"; che differenza c'è tra utilizzare font dello stesso colore del background di una pagina ed 'esagerare' con l'utilizzo di una keyword all'interno di un documento? Nessuna. Quindi, in questo caso, non si tratta di una over-optimization, ma di una bad-optimization, ovverosia di un utilizzo sbagliato (e quindi illegittimo) di tecniche corrette.

Più interessante è il caso dei fattori off-page. A nostro parere, il principale fattore off-page in un sito è il suo inbound linking, che - di fatto - possiamo considerare la vera novità introdotta da Google nel 1998. L'essenza dell'inbound linking è questa: a parità di fattori on-page, vengono posizionati meglio quei siti che sono più linkati (quantità) e linkati da siti già considerati 'validi' e che siano attinenti con i contenuti del sito linkato (qualità).

A nostro parere l'inbound linking può essere anche controproducente.

Come sempre, ciò che conta per Google è la 'naturalezza'; la regola aurea è (in teoria) quello di non fare nulla per l'indicizzazione che non si sarebbe fatto se i motori di ricerca non esistessero; una teoria che è certamente di difficile attuazione, ma che ha una logica fondata.

Torniamo dunque ai link. Se è vero che un sito è tanto meglio posizionato quanto più (e meglio) è linkato, è anche vero che questi link non debbono apparire 'artificiali' agli occhi dello spider (di Google o di altri motori di ricerca). Uno dei possibili fattori che può determinare l'artificialità dei link è il timing di linking;

se un sito appena nato o comunque appena indicizzato da un motore registra un improvviso aumento dei link in entrata (inbound link), è probabile che questo venga visto come 'attività artificiale'; è infatti improbabile che in un breve range temporale lo stesso sito sia linkato contemporaneamente (e 'naturalmente') da molti siti. Il linking e/o il crosslinking naturali tipicamente richiedono molto tempo perché inizialmente sono pochi i siti disposti a linkare siti che sono nati da poco, che non hanno una storia etc.

Un altro fattore di fondamentale importanza è la dominazione dei link; la presenza di nomi ripetuti è sicuramente ritenuto un indice di 'artificialità' e quindi depone a sfavore per il sito linkato. Sono infine di fondamentale importanza anche le caratteristiche dei siti di provenienza. Nel caso in cui un sito sia linkato da numerosi siti aventi le medesime caratteristiche (codice html identico o simile, stessa classe di IP o addirittura medesimo IP, etc.), è evidente che un motore di ricerca considererà questi link 'artificiali', anche se attivati in un ampio lasso di tempo e con diversi nomi.

Questa è la situazione attuale (ipotizzata, ovviamente). Possiamo ora chiederci se questa strategia di penalizzazione adottata dai motori di ricerca (e, in primis, da Google) sia corretta.

 

A nostro parere è corretta solo la penalizzazione nel caso in cui ci sia un eccessivo numero di keyword in una pagina, e per un semplice motivo; se fosse vero che un sito può essere penalizzato da bad-linking (come nei casi succitati), allora vuol dire che chi voglia penalizzare un sito concorrente può farlo tranquillamente e a insaputa del sito che si vuole penalizzare. Poniamo che il sito A sia concorrente del sito B; A potrebbe, da un proprio network di siti già penalizzati e quindi considerati 'cattivi', eseguire un'opera di linking verso il sito B e in questo modo penalizzarlo.
A nostro parere sarebbe più corretto - da parte di un motore di ricerca - 'sospendere il giudizio' sui link che appaiono artificiali e 'tenere per buoni' solo quelli che appaiono essere naturali.

Ancora una volta, appare chiaro come non esista un algoritmo o un insieme di algoritmi perfetto per indicizzare e posizionare un sito. Anche variabili nate con una giustificazione si rivelano essere deboli e possono essere sfruttate per influire sul posizionamento di siti terzi.

I fattori off-page, così tanto osannati e considerati negli ultimi anni, si rivelano dunque ambigui. Di fatto, anche la loro origine non è ben giustificata.Chi dice che un sito che è più linkato sia migliore di un sito che non lo sia? E' come credere che il vestito migliore sia quello che compra più pubblicità, oppure che il politico migliore sia quello più votato, oppure che la persona più intelligente sia quella che intrattiene più relazioni con amici e conoscenti.

In futuro (come vedremo meglio nella prossima lezione) i motori di ricerca dovranno prendere sempre più spazio i fattori on-page. L'utilizzo di fattori off-page non è altro che una 'resa' da parte di un motore di ricerca nella sua capacità di valutare la bontà di un sito. Poniamo che il sito A abbia fatto opera di linking artificiale (acquistandoli oppure costruendo dei siti ad arte per autolinkarsi); questa è sicuramente una strategia "black hat"; ma ciò vuol dire anche che il sito in questione non è di qualità? Assolutamente no. Per questo i fattori on-page rimangono di fatto i più importanti.

Probabilmente il passaggio tanto aspirato (da parte non solo di Google, ma anche degli altri player) da una versione lessicale a una versione semantica rappresenterà la possibilità di superare l'impasse qualitativa (di quantità ne abbiamo fin troppa) in cui i motori di ricerca si trovano attualmente.



Ti potrebbe interessare anche

commenta la notizia

C'è 1 commento
Luca
Ti è piaciuto l'articolo?