Federico Riva
a- a+

L’artificial linking

Cè un altro fattore da valutare quando si cerca di attribuire un valore a uno o più link in entrata. Se la compravendita di link è un fenomeno dannoso per la purezza degli algoritmi di Google, altrettanto può dirsi per il fenomeno dellartificial linking, ovverosia della creazione e pubblicazione di siti che linkano a un destination site.

Questa pratica è molto diffusa, ma i SEO che la applicano si sono già resi conto che non è affatto efficace e per un semplice motivo: è difficile far sì che questi siti linkanti abbiano pagine con un pagerank superiore a 2 e questo per ovvi motivi; perché abbiano un pagerank superiore bisognerebbe farli linkare da siti esterni e quindi il problema si riverbera allinfinito in un circolo vizioso.

Cè però da dire che, al contrario di quello che si sentiva dire qualche tempo fa, non cè rischio che questi link artificiali danneggino il pagerank o comunque il posizionamento delle pagine linkate e questo per un semplice motivo; potrebbe accadere che un concorrente linki un sito con dei siti artificiali solo per danneggiarlo. Per evitare questo, Google (e presumibilmente anche gli altri motori di ricerca) fa solo un calcolo positivo dei link: un link positivo aggiunge valore, un link negativo non ne sottrae.

All'interno di questa strategia 'autocratica' di linkaggio ci possono essere due 'tattiche'; la prima quantitativa e la seconda qualitativa. Nell'ipotesi quantitativa, il SEO è interessato a creare un grande numero di siti che linkino al mother-site (o destination-site), non preoccupandosi del loro pagerank e del peso che essi stessi avranno nei motori di ricerca, ma puntando soltanto sul numero.

Questa tattica è sbagliata per due motivi principali:

1)     per prima cosa, 1.000 link da altrettanti siti che hanno page rank zero o inferiore di quattro non fanno di certo migliorare il page rank o il posizionamento del mother-site; questo perché i motori di ricerca (e Google per primo) valutano positivamente i 'voti' insiti negli inbound link solo se questi sono forniti da siti 'autorevoli' o che comunque abbiano un 'credito' sul motore di ricerca stesso; 1.000 link da siti con pagerank insignificanti, traffico insignificante e link popularity insignificante non servono assolutamente a nulla.

2)      Inoltre, accanto a questo problema, esiste la seria possibilità che il motore di ricerca individui questi link come 'artificiali'; i parametri non sono pubblici, ma possiamo affermare pacificamente che un buon motore di ricerca (e a questi sono interessati i SEO) è in grado di riconoscere la 'parentela' di un network di siti; i parametri possono essere:

1) il contenuto (simile anche se non identico)
2) la grafica
(simile anche se non identica)
3) il codice HTML
(spesso è proprio identico)
4) l'hosting
(stessa classe di IP)
5) il linking reciproco
6) il medesimo registrar
7) il medesimo proprietario


Chi infatti crea 1000 siti per linkare il proprio mother-site non può certo trovare diecimila siti che a loro volta linkino il network di siti, perché allora sarebbe stato molto più semplice sforzarsi di fare linkare direttamente il mother-site piuttosto che passare attraverso l'intermediazione del network; accade dunque che Google riconosca che il mother-site è linkato da 1.000 siti, ma assolo stesso tempo può verificare che questi 1.000 siti non sono linkati da siti esterni (al network stesso). In sostanza questo network diventa una spam-island (ecco il perché del titolo di questo articolo). A parte tutto, rimane poi il grosso problema di quali contenuti inserire nei siti di questo network.

 

La seconda tattica è qualitativa, ovverosia creare una decina di siti che abbiano un proprio contenuto e che possano avere un 'peso' per il motore di ricerca e quindi linkarli al mother-site.


Questa tattica è forse superiore alla precedente sia in efficacia sia in efficienza, ma come vedremo ora ha dei difetti difficilmente sormontabili.

Per creare anche solo dieci siti 'pesanti' bisogna fare dei notevoli sforzi: bisogna costruire dieci siti completamente diversi l'uno dall'altro (quindi una ipotetica industrializzazione che poteva essere utilizzata per la tattica precedente non può essere applicata), bisogna poi creare un contenuto originale e che sia sempre aggiornato e, infine, bisogna necessariamente trovare dei siti esterni al micro-network che linkino al network stesso. Il SEO che volesse quindi intraprendere questa strada si troverebbe di fronte al paradosso di dovere moltiplicare il lavoro originario (trovare siti che linkino il proprio sito) per dieci.

A seguito di questa breve analisi, possiamo dunque trarre abbastanza serenamente una facile conclusione: qualora si voglia puntare fortemente ad aumentare la visibilità del proprio sito web attraverso fattori off-page e primariamente attraverso reperimento di inbound link, è molto più conveniente concentrarsi sulla qualità del proprio sito, cercare di fornire materiale che 'invogli' siti terzi a linkarlo e stabilire quindi una strategia di linking con altri siti (che non siano quindi della medesima proprietà).

Costruirsi un'isola di linking (quantitativa o qualitativa) è dunque possibile e può portare anche alcuni risultati positivi; di fatto, l'utilizzo delle medesime energie (finanziarie e lavorative) finalizzata al miglioramento della visibilità di un solo sito (quello che veramente interessa) porterebbe a risultati decisamente più soddisfacenti.



Ti potrebbe interessare anche

commenta la notizia

C'è 1 commento
Francesco
Hai dubbi su questo articolo?