Il funzionamento di base di Google
in relazione al posizionamento siti web

Tutto quello che viene qui descritto non è supportato da alcuna comunicazione scritta da parte di Google, né tantomento confermato in alcun modo da uno dei suoi funzionari; è semplicemente stato dedotto da una serie di esperimenti sistematici che sono stati svolti (alcuni sono tutt'ora in corso) proprio per evincere le funzionalità di base di Google, in modo da poter sviluppare una tecnica di posizionamento valida e che continui ad esserlo in futuro.

Iniziamo dall'inizio: ci sono dei programmi, i cosiddetti "spider", "robots" o semplicemente "bots" (per i tecnici del settore) che vanno in giro per il web a leggere i siti internet. Loro semplicemente leggono e riversano il contenuto delle pagine dei siti nella memoria cache di Google.

In qualsiasi momento potete vedere la copia del vostro sito residente nella memoria cache di Google scrivendo, nel campo di ricerca di Google, "cache:" seguito dal nome del dominio con o senza www. Questo è importante saperlo perché la versione del sito che Google ha nella sua memoria cache e su cui sta lavorando, potrebbe essere differente dal sito attualmente on line.

Ci sono svariati server di Google che analizzano il sito presente nella cache memory e ognuno di essi lavora su un parametro specifico. C'è il server che si occupa della keyword density, quello che si occupa della link popularity, quello che si occupa di analizzare la struttura del sito, etc.

Tempo fa, diciamo fino a settembre 2010, c'era la cosiddetta "Google dance". Questa consisteva nel fatto che ogni server "validava" i propri calcoli e li rendeva disponibili agli altri server per la determinazione dell'algoritmo globale per stilare la classifica. Agli albori la Google dance veniva eseguita (a parte i primi tentativi) ogni 2 mesi, poi si è assestata ad una cadenza mensile.

Ogni volta che veniva eseguita la Google dance, i SEO e le aziende che vivevano sul posizionamento dei siti, sudavano freddo perché non si aveva ancora un'idea significativamente chiara sul funzionamento dell'algoritmo, più che altro non era presente ancora una linea guida standard e così i risultati erano abbastanza variabili.

Ora non si parla più di Google dance, piuttosto si possono notare 3 livelli di ricalcoli:

  • Piccoli ricalcoli settimanali, dove vengono validati i lavori dei server "minori" che hanno dei tempi di risposta più veloci
  • Ricalcoli mensili, la vecchia Google dance, dove vengono validati i lavori dei server più importanti i cui risultati apportano variazioni sensibili alla classifica Google
  • Grandi update all'algoritmo generale dove Google opera delle scelte importanti che non solo apportano variazioni importanti alla classifica, ma causano anche drammatici cambiamenti nel panorama dei siti web e delle web agencies in generale

Gli ultimi esempi di queste grandi update, sono i cosidetti "Panda" e "Pinguino".

Il Panda: ha il compito di individuare testi duplicati nel web, decidere quale è il sito che ospita il testo originale, e quindi validarlo in classifica, individuare i siti che contengono il testo copiato ed affossarli in classifica.

Per dare una idea dell'affermazione "drammatici cambiamenti nel panorama dei siti web e delle web agencies in generale", basti dire che il Panda ha lasciato a casa oltre 10000 persone che operavano in web agencies che hanno subito pesantemente questo update e che si sono ritrovati i siti da loro gestiti affossati in classifica con conseguente perdita di contratti e quindi senza lavoro.

Per capire quello che è successo torniamo indietro al tempo delle BBS (vedi articolo precedente sul posizionamento motori di ricerca), quando queste aziende si sono convertite in web directory e successivamente in contents farm.

Cos'è una contents farm? è un'azienda che aggrega e suddivide per categorie, sottocategorie ed argomenti, testi e contenuti in grandi quantità. Perché queste aziende aggregano i contenuti? Perché le web agencies, che producono siti internet in grandi quantità, spendono meno comprando questi contenuti dalle contents farms, piuttosto che crearli da zero ingaggiando dei copywriters o facendoseli fornire dalle aziende clienti che molto spesso non hanno tempo di fornire dei contenuti originali.

Le web agencies, quindi, comprano i contenuti dalle contents farms, li mettono on line sul sito del cliente, riuscendo quindi ad usare poco tempo e a proporre dei siti internet a prezzi molto contenuti per vincere la concorrenza.

Succede però che Google trovi il contenuto del sito del cliente della web agency, uguale o molto simile al testo presente nella contents farm. Essendo la contents farm un'azienda da tempo presente sul web (BBS -> Web Directory -> Contents farm), molto spesso dal punto di vista di Google risulta essere la contents farm la titolare dell'originalità del contenuto e così il sito dell'azienda cliente viene affossato in classifica con conseguente perdita di visibilità e quindi di business. Il contratto alla Web agency non viene rinnovato ed ecco che chiudono le web agencies in grandi quantità.

Avendo basato la nostra tecnica di posizionamento sui motori di ricerca su contenuti originali, tutti i nostri siti sono passati indenni all'update denominato Panda.

Il Pinguino: ha il compito di individuare i cosiddetti "schemi di link" e affosare i siti che ne fanno uso.

Che cosa sono gli schemi di link? Gli schemi di link sono tutti i sistemi adottati per aumentare la link popularity di un sito in modo artificiale nei modi più svariati. Esempi di schemi di link: iscrizioni fatte in modo sistematico a web directory di un sito sempre con lo stesso titolo o parola chiave. Iscrizioni verso un sito fatte in un arco di tempo corto. Iscrizioni verso un sito fatte da web directory a tema diverso da quello del sito. Iscrizioni verso un sito fatte in automatico da un programma. Collegamenti a "cerchio", cioé il sito A invia un link al sito B che invia un link al sito C che invia un link al sito A chiudendo il cerchio. I cerchi possono essere più o meno lunghi. Questi sono solo alcuni esempi di schemi di link.

Tutto questo in un contesto duale: gli affossamenti sono molto veloci, le validazioni sono molto lente. Anche questo è molto importante da sapere. Per esempio questo sito era primo per "posizionamento siti internet" e primo per "posizionamento siti web". Dopo un ricalcolo mensile, il sito ha avuto una ricaduta grave (decima pagina) per la parola "posizionamento siti web". Non avendo fatto niente contrario alle policy di Google e non avendo adottato trucchi, abbiamo semplicemente deciso di non fare niente ed aspettare. Dopo 2 settimane e mezzo, il sito è risalito in prima pagina.

Se non si conoscono i tempi di risposta diversi, dei diversi server, e si nota un abbassamento in classifica, si potrebbero intraprendere "contromisure" che in realtà avrebbero effetti dannosi piuttosto che di aiutare il sito a risalire la classifica; questo purtroppo è un problema che pochi SEO hanno risolto veramente e molto spesso vengono intraprese azioni correttive sui siti non necessarie con un doppio effetto negativo: l'azienda cliente paga più soldi per scendere di più in classifica.

I tipi di affossamento sono due:

  • Affossamento automatico
  • Affossamento manuale

L'affossamento automatico viene eseguito in piena autonomia da una parte dell'algoritmo di Google. Praticamente, ogni server quando passa in rassegna il sito, se trova degli outpoints (cose che non sono come dovrebbero essere), se li segna e ne tiene traccia. Ogni server aggiunge gli outpoint alla lista e alla fine, se il conteggio, o meglio il punteggio (alcuni sono più gravi di altri) degli outpoints supera una certa soglia limite, viene dato l'OK all'affossamento del sito. Se invece il punteggio rientra in una fascia "ambigua", il sito viene assegnato ad un Qualitiy Rater di Google.

Cosa è un Quality Rater di Google: è una persona, quindi un umano e non un computer, che riceve in ingresso un elenco di siti da verificare, ci passa attraverso, verifica vari parametri relativi al sito ed è autorizzato da Google a decidere se affossare il sito o meno. Questo è il cosiddetto affossamento manuale.

Da un affossamento automatico è relativamente facile risalire, basta mettere a posto gli outpoints trovati dall'algoritmo e al prossimo ricalcolo il sito risale in classifica.

Da un affossamento manuale invece, è molto duro risalire, perché il sito viene in qualche modo "marchiato" da Google e potrebbe, in casi molto estremi, volerci anche un anno prima di poter riapparire in classifica. Talvolta, quando questo accade, è meno doloroso rimontare il sito su un altro dominio e ripartire da zero con il posizionamento (variando i testi), che non avere visibilità per un anno.

Questo è uno dei motivi principali per cui oggigiorno, lavorando con le aziende, un SEO deve sapere esattamente cosa fa durante il posizionamento sui motori di ricerca, perché potrebbe causare un danno all'azienda cliente piuttosto che avvantaggiarla rispetto alla concorrenza.

Una volta, nel mondo dei SEO, questo tipo di affossamento manuale veniva denominato "sandbox" (sabbie mobili - NdT) con forti proteste verso Google il quale però non ha mai confermato l'esistenza di questa "sandbox" come descritta dai "sindacati" dei SEO (varie associazioni e forum leader del settore). Tempo dopo però ha reso pubblico l'utilizzo dei Quality Rater, confermando di fatto questa funzione, indipendentemente dal nome che le viene dato.

Google comunque mette a disposizione nel pannello di controllo di Google Webmasters, un link per fare richiesta di riconsiderazione del proprio sito nel caso sia stato colpito da un affossamento.

Buona lettura da parte dello staff di Logica, agenzia di consulenza SEO a Torino
per il posizionamento siti internet sui motori di ricerca del web.