Senza una fase di pianificazione strategica approfondita non bisognerebbe iniziare un A/B Testing. Molti marketer tendono a seguire alcuni principi base:
1. Individuare i problemi
Si può pianificare un’ottimizzazione solo quando c’è qualcosa da migliorare. Il primo passo è quindi sempre l’individuazione di un problema, ad esempio la bassa percentuale di clic di un pulsante. Dopo aver riconosciuto il problema, il più delle volte si stabilisce l’obiettivo, in questo caso aumentare i clic sul pulsante in questione.
2. Ricerca e raccolta di idee
Prima di formulare delle ipotesi specifiche su un elemento, ci si dovrebbe informare e fare ricerche approfondite sulla questione. È facile sostenere che un pulsante blu funzioni meglio di uno rosso, ma questa tesi, senza prove empiriche, non ha fondamento. Ad esempio, consultare gli studi che analizzano l’effetto della scelta del colore sul comportamento dell’utente, è spesso un’ottima idea, oltre che possibile fonte di ispirazione su come e quali elementi modificare.
3. Definizione dell’ipotesi
Sulla base dei risultati della ricerca si formula una tesi che, ad esempio, potrebbe essere: un pulsante CTA giallo comporta una percentuale di clic maggiore. Oppure si modifica la posizione di una voce del menu per verificare l’ipotesi secondo cui nella nuova versione questo elemento verrà trovato più facilmente che in quella precedente.
4. Fase di sperimentazione
Si creano due varianti della pagina da testare, ad esempio la variante A con un pulsante CTA blu e la variante B con un nuovo pulsante CTA giallo. A questo punto inizia il test, nel quale le due versioni vengono messe a confronto in contemporanea attraverso due URL diverse, oppure una dopo l’altra. Con un software per A/B Testing le due differenti varianti vengono mostrate agli utenti in modo casuale.
5. Analisi e conclusioni
Se il test è stato condotto per un intervallo di tempo sufficientemente lungo e su un campione di utenti abbastanza grande, è possibile procedere con l’interpretazione dei dati. Riprendendo l’esempio descritto sopra, se la nuova versione con il pulsante CTA giallo mostra un clic rate migliore, verrà sostituita alla precedente.
Questo procedimento si può ripetere quando si vuole: ad esempio a questo punto si potrebbe testare se la posizione del pulsante CTA sulla pagina ha un ulteriore influsso sul clic rate. Ma, l’A/B test non serve solo per mettere a confronto dettagli: ogni utente formula autonomamente l’ipotesi e cosa vorrebbe testare.