Dopo anni e anni passati a
posizionare siti web nei motori di ricerca (i primi esperimenti risalgono al lontano 2001), ho visto vere e proprie "rivoluzioni" negli algoritmi usati dai vari Lycos, Altavista, Yahoo!, Virgilio, Google. Chi ne ha fatte di più ha vinto la sfida e ora detiene l'84% della quota di mercato. Indovinate chi è?
Sì,
Big G. E siccome l'evoluzione è alla base del suo successo, continua ad essere un imperativo nella sua strategia di mantenimento della leadership fra i motori di ricerca.
Da responsabile del reparto che cura il posizionamento per
molti dei siti web realizzati da Archimede, ho sempre ritenuto la ricerca e la sperimentazione alla base di una
strategia SEO efficace.
Di volta in volta ho cercato di essere un passo avanti. Pensavo a come io avrei migliorato l'algoritmo di ricerca e dopo qualche mese quelle evoluzioni diventavano realtà. Quando fai un'ipotesi su come funziona l'algoritmo è più facile fare dei test per suffragare o confutare la tua ipotesi. È molto più veloce del
reverse engineering (perché servirebbero migliaia e migliaia di esperimenti, cambiando poche variabili alla volta, per venire a capo di un algoritmo complesso e adattativo come quello di Google); ma c'è un limite: servono idee, bisogna formulare ipotesi, bisogna entrare nella mente di Big G.
Ed io l'ho fatto per 11 anni, basandomi su ipotesi razionali che di volta in volta trovavano conferma. Ma le evoluzioni più difficili da prevedere sono quelle che non si ritengono valide. Quelle che io non avrei fatto. Ed è arrivato il momento in cui la sfida con Google è diventata troppo difficile; o meglio non mi appassiona più di tanto, perché segue un filone che io non avrei enfatizzato come invece sta avvenendo in questi ultimi mesi.
Mi spiego.
Più di un anno fa
scrivevo di come la referenza sociale avrebbe cambiato i risultati delle nostre ricerche sul Web 3.0. E ancora prima
ipotizzavo l'uso di sistemi di monitoraggio della user experience su un sito per decretarne il successo o meno in una SERP (
Search Engine Results Page). Spiegavo di come Google voleva migliorare il suo algoritmo inserendo il "fattore umano", poiché a livello di evoluzione tecnologica e semantica non poteva andare oltre.
Tutte queste ipotesi sono state poi confermate, o direttamente da interviste rilasciare dai top manager di Google o da diversi esperimenti, miei come di altri SEO Specialist.
Il vantaggio indubbio di questa strategia, per Google, è che non deve più garantire alcuna "oggettività" della pertinenza di una chiave di ricerca rispetto ai risultati. Già da anni le sue SERP variano in base a fattori di localizzazione della query di ricerca, orario e perfino monitoraggio delle precedenti ricerche fatte da quell'utente. Ora Google ha preponderantemente introdotto anche l'influenza delle reti sociali di un dato utente, o di cluster simili di utenti.
Questo significa che se io per Google sono un utente web inquadrato in una cerchia di utenti tipo, anche se non ho amici che direttamente hanno fatto "+1" o "I-Like" su un contenuto, ma quel contenuto è stato referenziato da utenti appartenenti ad un cluster simile al mio, potrei vederlo come risultato delle mie ricerche prima di altri contenuti, anche più pertinenti rispetto alle parole chiave utilizzate nella mia query.
La strategia è chiara:
non una, non cento, non mille, ma milioni di SERP differenti. Il che per qualcuno potrebbe anche essere una scelta intelligente: con l'affollarsi dei contenuti prodotti quotidianamente dalla rete non è pensabile che ci siano solo i 10 posti della prima pagina di Google come finestra di visibilità rispetto ad una stessa
keyword o
key-sentence.
Ma ci sono due problemi: il primo riguarda il fatto che
le persone sono abituate mentalmente "all'oggettività dei risultati" nelle ricerche web. Anzi, è stato un dei fattori di successo dei motori di ricerca. Immaginate un amico che vi consiglia un sito di cui non ricorda il dominio e vi dice: «Digita la sigla WWT in Google, lo trovi come quinto risultato». Ma voi, per quanto vi sforziate, non riuscite a trovarlo, perché per voi quel sito si trova all'inizio della quarta pagina dei risultati di Google. La prossima volta vorrete il dominio esatto, non un riferimento così "aleatorio" come una keyword.
Il secondo problema riguarda i SEO Specialist. Quelli che come me hanno il compito di garantire la visibilità a siti web che non vogliono sprofondare nel
mare magnum della rete.
Da sempre Google ha cercato di fare la guerra a chi scopriva e aggirava (o sfruttava) i meccanismi di funzionamento del suo algoritmo. Ha introdotto il fattore umano anche per questo, perché lo riteneva meno "aggirabile". Ma in questo si sbaglia.
Il SEO di domani sarà proprio giocato sulla persone. Lì dove prima si usavano keyword, META, link, ora si utilizzeranno +1, I-Like, twitter. In pratica i SEO Specialist diventeranno più dei sociologi che degli web specialist, studieranno come influenzare gruppi di persone e indurli a compiere azioni. Faranno esperimenti sul valore della referenza generata in un dato canale, per capirne l'efficacia, proprio come ho fatto io ultimamente:
Questo modo di procedere sarà molto diverso da come è stato finora. E la colpa è in parte anche dei tanti specialisti come me che hanno sempre "sovra-ottimizzato" i siti web che volevano posizionare.
La
Search Engine Optimization si giocherà quindi su altri fattori.
Io la chiamo "
Alchimia Sociale". Per il posizionamento di un portale turistico il SEO Specialist metterà nel pentolone una brocca di mamme quarantenni con figli, due mestoli di uomini quarantacinquenni alto-spendenti sposati, una manciata di giovani snowboarder, tre cucchiai di biker e per finire una spolverata di blogger amanti dei viaggi, che non guasta mai. Mescoleranno e porteranno ad ebollizione.
Questo è il SEO di domani. A meno che Google non capisca che errore sta facendo è inizi a fare un passo indietro. Cosa che io reputo possibile. Non a caso da molto tempo ho avviato
un filone di ricerca parallelo sui sistemi di catalogazione universali.
Un ritorno alle directory? Non proprio. Piuttosto modi evoluti di gestire semanticamente i processi di catalogazione dei contenuti web, creando regole condivise di etichettatura e integrando questi processi di catalogazione con funzioni evolute di ricerca, basate sugli schemi di funzionamento delle reti neurali.
E mi fermo qui; perché va bene condividere il know-how, ma sempre meglio essere un passo avanti alla concorrenza. Anche perché, se questa sarà la via che prenderanno i motori di ricerca, potrei voler tornare a fare il
SEO Specialist...