Google Page Experience: alcuni aspetti di UX come ranking factor

Google Page Experience: alcuni aspetti di UX come ranking factor

ICT Systems Architect

Da qualche tempo gli strumenti per il rilevamento della velocità delle pagine targati Google sono in fermento: l’estensione Page Speed di Chrome si è totalmente rinnovata e sono apparsi in primo piano strumenti come Lighthouse e PageSpeed Insights.

Questo perchè finalmente, per semplificare molto, anche la reattività delle pagine diventerà un fattore rilevante per il posizionamento. Una piccola parte del lavoro che i progettisti fanno sull’esperienza utente verrà giustificata e celebrata, ed al contrario verranno sollevate criticità per gli sviluppatori che di progettazione/attenzione, invece, non ne fanno o non ne fanno a sufficienza.

Bisognerebbe festeggiare ma, come spesso accade quando si fa quel piccolo sforzo di guardare oltre il proprio naso, c’è sempre anche l’altra faccia della medaglia ed in questo post vorrei usare la scusa per riflettere su un concetto di respiro più ampio.

Google Mobilegeddon

In un precedente articolo discussi le mie paure riguardanti la precarietà dei criteri utilizzati da Google per definire la mobile-friendliness, non tanto in quanto a qualità in sè del “protocollo” (ci mancherebbe, i layout responsive sono sicuramente cosa buona e giusta) ma in relazione al fatto che delle regole così facilmente raggirabili non dovrebbero essere utilizzate per definire addirittura il ranking. Poi si sa, quel che Google decide è legge, e nemmeno sappiamo quanto impatti effettivamente sul posizionamento a parità di restanti fattori, quindi possiamo anche farci tutte le domande che vogliamo che poi, alla fine, si deve un po’ subire in silenzio.

Pochi giorni dopo, infatti, e vi assicuro per caso (non perchè stessi indagando per confermare la mia ipotesi) scovai un esempio di quel che sostenevo, approfondito in questo articolo, ovvero di come un sito dichiarato mobile friendly mostrasse in realtà, proprio da mobile, numerosi problemi di interfaccia, i quali a loro volta pregiudicavano l’usabilità e la navigabilità generale delle pagine.

Evidenziare i contro invece che premiare i pro

Oggi, purtroppo, stiamo assistendo di nuovo allo stesso scenario. Magari verrò smentito questa volta, e lo spero davvero, ma ne dubito fortemente.

Questa volta peraltro la situazione è più complessa a mio avviso, in quanto ribaltata: se con il mobilegeddon Google “premiava” i siti che rispondevano alle sue regole, qui invece solleva gli “errori” che vengono rilevati dal suo algoritmo, errori che da un lato sicuramente impatteranno sul ranking ma che, cosa ben peggiore da un certo punto di vista, sono racchiusi in un report pubblico, che chiunque può vedere (e utilizzare a sproposito, da cui il mio timore).

I numeri non bastano, serve più semantica

Sì, perché come accade in molti scenari basati sulle statistiche generate da automatismi, algoritmi, machine learning ecc. che vanno sempre più di moda in un mondo dove il business del dato vale miliardi, sarebbe necessario associare sempre un pertinente ed autorevole contributo umano per comprendere e calare i rilevamenti nella corretta situazione, ma purtroppo questo non accade così spesso.

La tendenza, ultimamente, e intendo in generale, è quella di dare troppo spesso per assoluti i numeri, attribuendo la qualità dell’informazione in funzione della quantità ottenuta, invece che viceversa. Credo sia un processo molto pericoloso. Non possiamo prescindere da una visione critica delle cose, dei fatti e quindi anche dei numeri, se ne abbiamo le competenze.

E se invece non le abbiamo dovremmo forse essere più cauti nelle sentenze.

Allora “Matrix” si sta lentamente impossessando della nostra consapevolezza e capacità di discernimento?? Beh, se oggi, pur criticando di continuo la società, attribuiamo autorevolezza ad un contenuto e a chi l’ha scritto in funzione del numero di follower (che in buona parte sono quella stessa società) forse qualche problema c’è davvero…

Ma tornando in tema, voglio condividere un altro esempio di come la lettura dei numeri in sé non debba essere mai vista come la fine di un percorso ma solo come la punta di un iceberg.

L’acquisizione diretta di Google Analytics

Google Analytics - Acquisizione

In Google Analytics, lo strumento di rilevamento del traffico più diffuso per siti web ed applicazioni, vi è una sezione, chiamata Acquisizione, che spiega al lettore da quali fonti sia arrivato il traffico (motori di ricerca, social, siti partner ecc.). Tra i vari canali di acquisizione vi è il canale “diretto”.

Senza entrare troppo nel dettaglio ci basti sapere che in comuni condizioni vengono marcate come visite dirette due tipi di visite diametralmente opposte quali:

  • il digitare manualmente l’indirizzo di una pagina
  • il cliccare un link a quella stessa pagina contenuto in una mail

Sono visite totalmente differenti perché comunemente sono differenti le motivazioni di queste due persone.

  • Nel primo caso abbiamo un utente consapevole, che ha una certa cultura e mostra un certo interesse verso il tema proposto da quella pagina, di cui conosce l’indirizzo e lo digita perchè lo vuole raggiungere
  • Nel secondo caso abbiamo invece facilmente un utente inconsapevole, che potrebbe non saper nulla del prodotto/servizio comunicato, di cui quindi non sappiamo nemmeno l’interesse che possa mostrare, che ha semplicemente cliccato un link in una newsletter e che di lì a poco statisticamente chiuderà la pagina raggiunta

I dati che a quel punto leggeremo circa il canale diretto di acquisizione, ed in particolare durata della sessione, tempo in pagina, tasso di conversione, frequenza di rimbalzo ecc., saranno il risultato di un contributo di utenti diversi, con background ed aspettative diverse, eppure li vedremo mischiati tutti insieme, in una tragica media matematica.

I parametri della Google Page Experience

Dopo questa lunga introduzione, necessaria a dimostrare come i numeri debbano essere presi sempre con le pinze e i dovuti approfondimenti, entriamo ora nel vivo di questa page experience così da capire anche quali pericoli si celino dietro.

Anche in questo caso non entro nei tecnicismi, per non distogliere il focus dalla visione critica che si deve avere sull’argomento.

La page experience, il nome dato a questo nuovo optional aggiunto all’algoritmo di Google, valuta - tramite un rilevamento numerico - una serie di caratteristiche della pagina, ed in base all’esito di questo rilevamento attribuisce un punteggio numerico.

Google fa quindi un’analisi, un’intervista, delle nostre pagine web simulando una visualizzazione sia su dispositivi desktop che mobile e divide le caratteristiche rilevate in quattro famiglie:

Google Page Experience

Performance

Il capitolo performance, che si ipotizzi essere il maggior contributore nella page experience, raccoglie - riassumendo - informazioni riguardanti la velocità di caricamento della pagina.

Si parla di metriche quali:

  • tempo necessario alla stampa dei contenuti in pagina
  • tempo necessario ad ottenere la completa interagibilità della pagina
  • presenza di Layout Shifting, ovvero lo scostamento del layout durante il caricamento (quel che accade in maniera molto massiva nei siti pieni di banner pubblicitari)

Accessibilità

Facendo una metafora, l’accessibilità - nel mondo delle interfacce uomo-macchina - è ciò che si intende per abbattimento delle barriere architettoniche nel mondo reale. Chi si occupa di accessibilità, quindi, si occupa di rendere quel prodotto/servizio digitale conforme agli strumenti e alle caratteristiche di ipovedenti, non vedenti ed in generale di persone diversamente abili. Peraltro è anche l’unico aspetto del mondo dello sviluppo di interfacce web normato dalla Legge Italiana (legge n.4 del 9 gennaio 2004, chiamata anche “Legge Stanca”).

Qui l’audit verifica se ci sono dei problemi di utilizzo da parte di persone diversamente abili come ad esempio la grandezza dei testi, la grandezza e la distanza tra loro degli elementi interattivi, il contrasto tra il colore di sfondo e quello del testo ecc.

Best Practices

In questo capitolo si trovano una miscellanea di parametri legati soprattutto alla sicurezza delle trasmissioni tra il client ed il server. Si tratta di parametri ed aspetti molto tecnici che spaziano anche verso l’usabilità ma che per la maggior parte valutano la presenza di standard di sicurezza e l’assenza di vulnerabilità (per quanto chiaramente uno strumento automatizzato possa fare).

Qui già un primo appunto va fatto: ottenere 100 in best practices ad esempio non significa essere immuni da attacchi DDoS, brute force, man in the middle ecc.. Non si tratta quindi di essere al sicuro da tentativi di attacco in senso generale, quanto solamente di garantire le specifiche che in questo momento a Google interessano ai fini del posizionamento.

SEO

Non poteva mancare anche qui un affondo sull’ottimizzazione delle pagine sui motori di ricerca, ovviamente, dato il contesto. L’analisi è piuttosto canonica, niente di particolarmente nuovo quindi rispetto ai soliti fattori che ben conosciamo.

Gli strumenti di rilevamento della Google Page Experience

Come faccio a sapere cosa pensa Google della mia page experience per sapere se sono “a norma” oppure no?

L’algoritmo che Google utilizza per fare questa valutazione, o parte di esso (non lo sapremo mai), possiamo utilizzarlo anche noi e come dicevo non tramite particolari modifiche al codice ma pubblicamente, per qualsiasi pagina web al mondo.

Il modo più veloce per un’analisi spot è inserire l’url della pagina in Google PageSpeed Insights il quale, però, sebbene analizzi sia simulando una connesione desktop che una mobile non rileva tutte le metriche elencate sopra ma “solo” quelle relative alla performance.

Per un’analisi completa invece bisogna installare Lighthouse, un’estensione per Chrome.

L’esito dell’audit di Google Lighthouse in merito alla Page Experience

È quasi impossibile, qualsiasi pagina voi analizziate, rilevare in prima battuta un punteggio di 100 in tutte le categorie. L’audit trova sempre qualcosa da correggere o di perfettibile e questo accade anche a causa del fatto che i criteri siano molto restrittivi, soprattutto in caso di siti web con forte propensione creativa ed emozionale, essendo criteri in buona parte orientati alle massime performance di velocità.

Questo porta gioco forza ad una accettazione di un compromesso, dove scelgo di mettere in campo le attività che mi fanno perdere meno punti per poter sgarrare da qualche altra parte, appunto per esigenze creative ad esempio.

Se voglio immagini ampie, ad esempio, so che questo comporterà un aumento del tempo di caricamento. Posso mettere in atto tutte le pratiche per rendere le immagini leggere, questo sì, ma non arriverò mai ad ottenere il punteggio della stessa pagina con immagini piccole o senza immagini.

Non bisogna, quindi, farsi prendere dal panico o si finisce per perdere giornate in lunghissime ottimizzazioni che comportano a loro volta una serie di modifiche tecniche che, alla fine, potrebbero generare, udite udite, una pessima esperienza utente, ovvero l’opposto che questo ranking factor dovrebbe garantire e proteggere.

Si, proprio così, nell’introduzione, infatti, ho parlato di “una piccola parte del lavoro che i progettisti fanno”, ovvero quella parte che Google analizza e verso cui spietatamente punta il dito, che non è l’esperienza utente nel suo complesso, ma solo un 10/15%.

Non dobbiamo quindi fare l’errore di rincorrere la perfezione in quel 10/15% per poi lasciar scoperto il restante 85/90%.

Il fine qui non giustifica i mezzi.

Come sempre la virtù sta nel mezzo:

  • è sicuramente vero che un punteggio ad esempio di 20 o 30 indichi una pagina con dei problemi
  • è sicuramente vero che un punteggio ad esempio di 75 o 80 indichi una buona pagina
  • non è sicuramente vero che se non raggiungi un punteggio di 100 la tua pagina faccia schifo

Questa specificazione è necessaria perché dal momento che chiunque può analizzare le pagine, pubblicamente, questo qualcuno potrebbe:

  • farsi sviare dai colori e dai valori (fino a 49% rosso, fino a 89% giallo e solo da 90% verde), se sei il proprietario della pagina, ipotizzando che il lavoro fornitogli sia di scarsa qualità, quando invece il risultato è frutto di una serie di accurati e pensati bilanciamenti e che probabilmente se avesse ricevuto la bozza grafica di un possibile 100% l’avrebbe cestinata insieme al contatto del fornitore
  • sfruttare colori e valori per mostrarsi paladini investigatori, se è un competitor del tuo attuale fornitore, per cercare di portare acqua al suo mulino e un nuovo cliente in portfolio

Aprire la mente e fermare gli assolutismi

Fortunatamente Google ha chiarito che la precedenza, quindi il peso maggiore nel ranking, è ancora ad appannaggio dei contenuti, che devono essere sempre pertinenti, interessanti e ben strutturati, e quindi che questa page experience verrà di fatto presa in considerazione a parità di altri fattori.

Non possiamo quindi far altro che appellarci al buon senso quando siamo progettisti, all’etica quando siamo competitor, alla fiducia quando siamo clienti, evitando di ragionare sempre per assoluti a spada tratta dato che nemmeno i numeri, che è quanto di più razionale esista, lo sono mai.