Posizionamento sito web su Google: novità algoritmo contro spam da Matt Cutts

La quantità di spazzatura presente nelle pagine dei risultati del motore di ricerca fornite da Google è diminuita, ma il fenomeno sembra aver ripreso consistenza. La nuova strategia di Mountain View contro lo spam.

Un ritratto di Matt Cutts, principal engineer di Google
 

Google prosegue la sua battaglia contro lo spam, ovvero contro la spazzatura che gli utenti del motore di ricerca di Mountain View sono costretti a sorbirsi ogni volta che visualizzano le pagine dei risultati del search engine. Una situazione che si verifica quando i siti web tentano di scalare la vetta delle SERP senza badare alla qualità e all’originalità dei contenuti proposti, oppure quando infrangono le linee guida predisposte da Google per il motore di ricerca.

Sul tema è intervenuto Matt Cutts, principal engineer a Mountain View, che ha ricordato i risultati ottenuti da BigG negli ultimi anni: la quantità di junk content presente nelle SERP risulta essere più che dimezzata rispetto a quella registrata cinque anni fa. In altre lingue, inoltre, di spazzatura ce n’è ancora meno. Ma la lotta prosegue, perché negli ultimi mesi il fenomeno sembra aver ripreso consistenza, inficiando la qualità dei risultati forniti dal motore di ricerca di Google.

Matt Cutts e compagnia stanno valutando diverse modifiche volte a ridurre in maniera ancora più consistente il livello di spam, agendo anche sugli algoritmi sviluppati a Mountain View. L’obiettivo è colpire in particolar modo quei siti web che copiano contenuti prodotti da altri, spesso senza citare la fonte, e quindi quegli spazi online caratterizzati da uno scarso livello di originalità.

Si interverrà sugli algoritmi, dunque, ma si pensa anche di portare in dote agli utenti strumenti che possano consentire loro di fornire feedback accurati in relazione alla qualità e ai contenuti dei siti web. Le cosiddette content farm sono avvisate.

Autore: Andrea Galassi