Gastbeitrag von Olaf Brandt
7 Tipps für gute Ergebnisse beim A/B-Testing
Es geht mal wieder um das wichtige Thema A/B-Testing! Schwachstellen auf der eigenen Website können teuer zu stehen kommen. Doc Optimierungsmaßnahmen sollten nie ohne vorheriges Testing durchgeführt werden. Eine bewährte Methode ist das A/B-Testing. Dabei werden mehrere Webseiten-Varianten an Besucher ausgespielt und gegeneinander getestet. Was einfach klingt, birgt aber einige Fallstricke, die Olaf Brandt, Director Product Management beim Web-Controlling- und Targeting-Anbieter etracker, vorstellt. Zusatztipp am Rande: Die Optimierung der Website ist keine Aufgabe, die man sich einmal im Jahr vornehmen sollte, sondern eine kontinuierliche. Durch Analyse und Testing stellen Websitebetreiber sicher, dass nur erfolgversprechende Maßnahmen umgesetzt werden.
1. Wildes Testen ohne Strategie
Da A/B-Tests im Handumdrehen erstellt werden können, verführt das dazu, ohne Strategie zu handeln. Marketingverantwortliche sollten zunächst das Problem identifizieren und dann eine Hypothese formulieren: “Wenn ein
2. Achtung Fehlerteufel
Wenn es an den Launch eines A/B-Tests geht, ist ebenfalls Bedacht angesagt. Einmal nicht aufgepasst und der Fehlerteufel hat sich eingeschlichen. Vor dem Release des Tests müssen Marketingverantwortliche noch einmal explizit die Funktionalität sowie die Anzeige der Varianten in unterschiedlichen Browsern und auf diversen Endgeräten prüfen.
3. Zu hohe Ziele
Mehr Bestellungen oder Umsatz als Ziel eines A/B-Tests anzugeben, kann den Test verfälschen, weil zu viele Faktoren auf den Verkauf einwirken. Es gilt, auf kürzere Conversion-Ziele zu setzen, sogenannte Mikro-Conversions. Wird im A/B-Test ein neuer Call-to-Action-Button ausprobiert, kann das Ziel der Klick darauf sein.
4. Duplicate Content würgt SEO-Ranking
Ein gutes Suchmaschinenranking kann durch A/B-Tests schnell zunichtegemacht werden. Damit die Seitenvarianten von Google nicht als Duplicate Content behandelt werden, muss man den Content der Seite dynamisch ändern, so dass der Google-Crawler immer nur die Originalseite durchsucht.
5. Zu schnell Ende im Gelände
Auch wenn sich nach 100 Testbesuchern schon ein Gewinner des A/B-Tests herauskristallisiert, die Datenmenge muss groß genug sein, um die Gewinner-Variante mit statistischer Signifikanz zu bestimmen. Typischerweise braucht es einige 100 bis 1000 Besucher pro Test, abhängig davon, wie stark sich die Conversion-Rate der Seitenvarianten vom Original unterscheidet.
6. Aus den Augen aus dem Sinn
Ein A/B-Test kann manchmal schneller ein eindeutiges Ergebnis erzielen, als man vermutet. Mit jedem Tag, an dem der A/B-Test noch läuft, büßt der Websitebetreiber Umsatz oder zumindest die definierten Conversion-Ziele ein. Ein Autopilot kann helfen. Er erkennt, wenn es eine eindeutige Gewinnervariante gibt, und spielt diese mehrheitlich aus.
7. Testing ohne Segmentierung
In der Regel werden A/B-Tests über alle Kundengruppen gefahren. Allerdings sollte der Marketingverantwortliche die Ergebnisse immer segmentieren, nach Wiederkehrern, Stammkunden etc. Das ermöglicht auch einen ersten Einblick in mögliche Personalisierungsstrategien. Je nach Besuchergruppe und Verhalten können dann personalisierte Websiteinhalte automatisch ausgespielt werden.
Passend zum Thema: “A/B-Testing-Fehler, die Start-ups immer wieder machen“, “Wie Start-ups mit A/B Tests ihre Conversion erhöhen können” und “10 häufige Fehler beim Testen von Software“.
Zur Person
Olaf Brandt ist Director Product Management beim Web-Controlling- und Targeting-Anbieter etracker.