Optimierung mithilfe des Split-Tests
Der A/B-Test ist – abgesehen von sehr aufwändigen Verfahren wie Eyetracking-Studien – eine der wirkungsvollsten Methoden, um eine Webseite dauerhaft zu optimieren und dadurch Konversionen zu steigern. Er ist hervorragend geeignet, wenn es darum geht, kleine Unterschiede im Seitenaufbau zu testen. Dies können zum Beispiel
- unterschiedliche Farben oder Farbspektren
- Anordnung oder Größe von Elementen
- alternative Formulierungen und Texte
sein. Es können aber auch ganze Funktionen in einem A/B-Test verglichen werden, z.B. in einem Online-Shop unterschiedliche Zahlarten oder Pflichtfelder bei der Anmeldung.
Oberste Priorität sollte beim A/B-Test aber immer sein, dass man zur besseren Messbarkeit immer nur eine Änderung vornimmt, auch wenn das bedeutet, dass man 2, 3 oder auch 10 weitere A/B-Tests machen muss, bis man all seine Änderungswünsche einmal getestet hat.Deswegen sind A/B-Tests auch nichts für ungeduldige Kunden oder Agenturen. Möchte man sehr viele Änderungen an der Webseite vornehmen, empfiehlt es sich stattdessen auf einen multivariaten Test zu setzen (auf multivariate Tests werden ich evtl. in einem separaten Blogpost zu sprechen kommen).
Gehen wir aber mal davon aus, dass unsere zu optimierende Webseite nur mäßige Besucherzahlen hat, dann scheidet der multivariate Test auch schon wieder aus, da multivariate Tests nur auf Seiten mit hohen Besucherzahlen einigermaßen schnell zu Ergebnissen führen.
»Warum A/B-Tests?
Das müssten Sie als Designer doch schon wissen?!«
Die Frage, warum man A/B-Tests machen sollte ist eigentlich ganz einfach zu beantworten und doch läuft eine Agentur beim Vorschlag einen A/B-Test durchzuführen Gefahr, das eigene Fachwissen oder gar die Mitarbeiter am Projekt in Frage zu stellen. Schließlich hat man darauf vertraut, dass Konzepter, Designer, Texter usw. ihr Bestes gegeben haben. Dennoch gibt es genug Gründe, wie man einen A/B-Test begründen könnte:
- nach der Gestaltungsphase zur Beweisführung, dass der richtige Entwurf gewählt wurde
- bei der richtigen Platzierung von Inhalten, die nachträglich in das Layout eingefügt werden sollen
- beim Vergleich von alter und neuer Webseite
Wie funktioniert ein A/B-Test?
In vielen Fällen verläuft ein A/B-Test nach dem Prinzip, dass die bestehende Webseite (Version A) gegen die geänderte Webseite (Version B) antritt. Um nun diese beiden Versionen gegeneinander antreten zu lassen, könnte man entweder zeitversetzt erst Version A 4 Wochen laufen lassen und danach 4 Wochen Version B laufen lassen, oder man findet einen Weg den Besucherstrom der Webseite so aufzuteilen, dass 50% Version A sehen und die anderen 50% Version B zu sehen bekommen. Zweiteres hätte den Vorteil, dass saisonale Unterschiede, gutes Wetter oder Feiertage sich nicht auf die Besucherzahlen und Konversionen auswirken, bedeutet aber auch, dass 2 Versionen zeitgleich vorliegen müssen. Deswegen werden für die Umsetzung eines A/B-Tests eine ganze Reihe von (teilweise kostenpflichtigen) Diensten angeboten. Ich will im Folgenden nur auf 2 Möglichkeiten eingehen, wie man einen A/B-Test umsetzen kann:
Google Adwords
Hat man 2 Versionen der zu testenden Seite angelegt, so kann man in Google Adwords ganz bequem den Besucherstrom zu 50% auf Version A und zu 50% auf Version B lenken. Bei der Auswertung muss man dann die Daten lediglich auf die Quelle Adwords beschränken und bekommt so genaue Messdaten. Nachteil: Es exisitieren zwischenzeitig 2 Seiten mit nahezu gleichem Inhalt.
Google Website Optimizer
Für den schnellen und einfachen A/B-Test zwischendurch ohne Adwords-Konto empfehle ich alternativ den kostenlosen Google Website Optimizer. Im Gegensatz zur Adwords Version sollte man hier nicht eine zweite, geänderte Seite anlegen, sondern schreibt alle Änderungen zusätzlich in die erste Seite mit rein. Per CSS und dem Google Website Optimizer lassen sich dann die entsprechenden Inhalte für Version A und B anzeigen bzw. verstecken. Dadurch dass ein Script im Hintergrund immer Hintergrund mitläuft, weiß der Website Optimizer genau, wie häufig die Versionen angezeigt wurden und kann so nicht nur die Versionen einblenden, sondern auch später die Auswertung übernehmen.
2 Beispiele aus unserem „Testlabor“
Für ein Kundenprojekt, welches primär über Adwords beworben wird, vermuteten wir, dass die Call-to-Action Buttons in rot zwar wahrgenommen wurden, aber nicht als Buttons, sondern als Hinweis zu der daneben stehenden Telefonnummer, siehe Grafik:
Deswegen erstellten wir eine Variante B, in der das Zusammenspiel aus Button und Telefonnummer getrennt und der Button in den Mittelpunkt gerückt wurde:
Überraschenderweise konnte in diesem Test, der mit ca. 800 Seitenbesuchern durchgeführt wurde, unsere Theorie nicht bestätigt werden. Die Tatsache, dass der Button und die damit verbundene Handlungsaufforderung offensichtlich waren, führte dazu, dass die alte Variante, Version A grob 6 Mal besser verkaufte, als Version B.
In so einer Situation bleibt eigentlich nur zu hoffen, dass der Kunde diese Zeichen nicht falsch deutet und die Prozedur des A/B-Tests dadurch als Zeitverschwendung abtut. Stattdessen lässt sich so auf jeden Fall sehr gut demonstrieren, wie man mit kleinen Änderungen den Verkauf sowohl steigern als auch senken kann.