Wie kann ich meine Website verbessern? Wie bekomme ich mehr Followers? Welche Änderungen meines Produkts sind tatsächlich wirksam? Diese Art von Fragen klären sich mit einer guten Portion A/B-Testing.
Beim A/B-Testing handelt es sich um eine Methode der Use- Experience. Grundlegend wird dabei geprüft, welche von zwei Versionen eines Produkts besser bei Kunden und Kundinnen ankommt. Dies ist zum Beispiel dann sinnvoll, wenn man eine Website neu gestalten will. Mit A/B-Testing kann die Hälfte der User auf der neuen Version der Webseite landen, während die andere Hälfte weiterhin die alte Version aufruft. Dadurch lässt sich schnell feststellen, ob die, mit der neuen Version gewünschten Effekte, erzielt werden. Ist dies nicht der Fall, kann die neue Version der Website weiter optimiert werden, bevor man sie für alle Besucher und Besucherinnen live schaltet.
A/B-Testing ist besonders hilfreich, wenn das Produkt, oder ein Aspekt davon, völlig neu aufgebaut wird. Um beim vorherigen Beispiel zu bleiben, könnte ein Lifestyle-Blog in eine Website mit Kursangeboten umgewandelt werden. Bei dieser Transformation würde sich das grundlegende Ziel der Website ändern. Wo es vorher das Ziel war, Besucher und Besucherinnen bestenfalls zu informieren oder zu unterhalten, würde es nun das Ziel sein, Besuchende mit so wenig Klicks wie möglich auf die Verkaufsseite zu führen.
Hierbei handelt es sich jedoch um eine sehr grosse Veränderung. In den meisten Fällen ist es sinnvoller, tiefgreifende Änderungen entweder schrittweise zu machen oder mit Test-Usern vorher auszuwerten (Beta-Testing).
Um den Erfolg einer Veränderung zu testen, müssen im Vorfeld zum A/B-Testing die Ziele des Tests definiert werden. Um diese Ziele messen zu können, werden normalerweise Kennzahlen definiert. Bei einer Website sind das Kennzahlen, wie die Anzahl Besucher, die Konversionsrate - wie viele der User werden zu Kunden und Kundinnen - , die Verweildauer auf der Seite oder die Ladegeschwindigkeit. Natürlich können auch weitere Kennzahlen beobachtet werden.
Das A/B-Testing muss sich jedoch nicht nur auf ein Produkt direkt beziehen. Oftmals werden Werbekampagnen mittels A/B-Testing analysiert und verbessert. Im Zeitalter der Techgiganten können Internet-User systematisch in ihrem Verhalten im World Wide Web beobachtet werden. Die dadurch gesammelten Daten machen es relativ einfach eine bestimmte Zielgruppe effektiv mit Werbung zu berieseln.
Möchte man beispielsweise eine Werbekampagne bei Google platzieren, so bieten diese die Möglichkeit an, diverse Varianten einer Werbung gleichzeitig hochzuschalten und laufend anhand der Ergebnisse Anpassungen vorzunehmen - falls gewünscht, geschieht dies automatisch. Man kann sich das so vorstellen, dass man für das gleiche Produkt zwei verschiedene Werbebilder kreiert. Google wählt dann zufällig, welche Variante einem Internet-User angezeigt wird. Sobald dies geschieht, werden Daten gesammelt, die bei der Auswertung der Variante von hohem Wert sind.
Natürlich können nebst Bildern auch Texte oder gar einzelne Wörter variieren. Auch welche Variante welche Zielgruppe am meisten anspricht, kann so bestimmt werden.
Mit Hilfe von Cookies können potentielle Kunden und Kundinnen über verschiedenste Websites verfolgt werden. Daraus lässt sich schliessen, ob jemand wirklich zur Zielgruppe gehört. Ausserdem kann die gleiche Werbung über mehrere Seiten wiederholt angezeigt werden, was die Verkaufschancen erhöht.
Die wichtigsten Kennzahlen für eine Werbekampagne sind CTR (Klickrate) und CPC (Cost per Click). Während CTR zeigt, wie viele der User, denen die Werbung angezeigt wurde, diese effektiv angeklickt haben, bezieht sich CPC auf die Tatsache, dass die Kosten für eine Werbung mit jedem Mal variiert. Das kommt davon, dass bestimmte Begriffe, und die damit angesprochene Zielgruppen, stärker umworben sind als andere. Die Preise werden durch Algorithmen bestimmt. Deshalb werden alle Werbenden gezwungen, einen Maximalpreis für den Klick, wie auch insgesamt für den Tag, festzulegen.
Social Media & Newsletter
Nebst diesen recht fortgeschrittenen Varianten könnte man sich auch leichtere Anwendungsfälle für A/B-Testing vorstellen. Beispielsweise als Betreiber oder Betreiberin eines Social Media Profils, ist die Reichweite häufig das Ziel. Die wichtigsten Kennzahlen hierbei sind Impressionen (wie viele haben es gesehen?), Likes und Shares (wie oft wurde der Beitrag geteilt?). Man könnte sich also fragen, ob das gleiche Produkt in zwei verschiedenen Varianten veröffentlicht werden sollte. Ein YouTube-Kanal, welcher sich auf Events in der Gaming-Welt fokussiert, könnte abwechselnd Videos mit Videospielaufnahmen, Voiceover und solche mit Realaufnahmen, dem klassischen Format von Vlogs, hochladen. Nach einer Weile würde sich zeigen, welche Art von Videos bessere Ergebnisse erzielen - z.B. mehr “Gefällt-mir”-Angaben. Auch Betreiber und Betreiberinnen eines Instagram-Profils könnten schauen, ob die eigenen Posts bessere Ergebnisse liefern, wenn zum Beispiel das eigene Haustier, oder das der Nachbarn, zum Hauptthema der Bildproduktion wird.
Natürlich handelt es sich hier nicht unbedingt um eine randomisierte Version des A/B-Testing. Werden die unterschiedlichen Arten von Videos oder Posts zum Beispiel nicht an den gleichen Wochentagen oder gleichen Tageszeiten hochgeladen, könnte dies Auswirkungen auf die Ergebnisse haben. Solche und ähnliche Faktoren müssen in der Auswertung natürlich berücksichtigt werden. Dennoch lohnt es sich, mit solchen Variationen zu experimentieren.
Abstrakt gesagt wird beim A/B-Testing jeweils nur eine Variable verändert. Wie diese Variable zu definieren ist, hängt dabei ganz von dir ab.
Ein weiterer Anwendungsfall von A/B-Testing sind Newsletter. Dies kann verschiedene Folgen haben. Beispielsweise steigen die Besucherzahlen auf deiner Website nicht, obwohl du die Newsletter qualitativ immer besser gestaltest. In so einem Fall wäre es sinnvoll zu prüfen, ob es möglicherweise nicht am Inhalt des Newsletters, sondern an etwas ganz anderem liegt. Als Variable fürs A/B-Testing wäre es zum Beispiel sinnvoll zu untersuchen, ob der Zeitpunkt, an dem der Newsletter versendet wird, einen Einfluss auf die Klickrate hat. Dabei können wir uns folgende Hypothese vorstellen:
Hat man zum Beispiel den Verdacht, dass die meisten Leute montagvormittags demotiviert sind, und lieber ihre E-Mails lesen, anstatt zu arbeiten, so wäre dies ein guter Zeitpunkt, um ihnen deinen Newsletter zuzusenden. Dadurch würde die Wahrscheinlichkeit erhöht, dass deine Abonnenten oder Abonentinnen den Newsletter lesen.
So könnten 50% der Abonnenten und Abonentinnen den Newsletter zum gewohnten Zeitpunkt erhalten (Gruppe A) und die anderen 50% würden diesen am Montagvormittag erhalten (Gruppe B). Wie schnell du bei diesem Test sehen kannst, ob bei dieser Änderung der gewünschte Effekt eintritt, hängt dabei stark von der Anzahl der Abonnements deines Newsletters ab (wie viele Leute deine E-Mail erhalten).
Je höher die Anzahl deiner Leserschaft, desto schneller zeigt sich ein Effekt in den Daten. Hast du jedoch eine geringe Anzahl an Abonnenten, empfiehlt es sich, das A/B-Testing über mehrere Wochen laufen zu lassen.