A/B-Tests zur Conversion-Optimierung einsetzen

von Michael Feike
| Lesedauer 5 Minuten |

Das Angebot an Onlineshops im Internet ist groß – und die Konkurrenz für Shopbetreiber entsprechend ebenfalls. Damit sich die Kunden in Deinem Shop wohlfühlen, Vertrauen fassen, etwas kaufen und am besten auch noch mal wiederkommen, muss der Shop den Besuchern ein persönliches Shoppingerlebnis bieten. Doch anders als bei einem Ladengeschäft vor Ort, hast Du als Onlineshopbetreiber die Kunden nicht persönlich vor Dir und kannst sie nicht direkt fragen, was sie sich wünschen. Indirekt ist dies aber mit sogenannten A/B-Tests möglich. Erfahre in diesem Artikel, was A/B-Tests genau sind, warum sie für die Steigerung Deiner Conversions sinnvoll sind und wie Du sie richtig nutzt.

Was ist ein A/B-Test?

Um Kunden dazu zu verführen, weitere Produkte in den Warenkorb zu legen und zu kaufen, sind Produktempfehlungen heute gang und gebe. Je genauer zum Beispiel Empfehlungen auf die Kunden zugeschnitten sind, desto wahrscheinlicher ist es, sie zu einem Kauf zu animieren. Um diejenigen Faktoren zu ermitteln und zu verändern, die einen Besucher eventuell vom Kauf abhalten, können sogenannte A/B-Tests eingesetzt werden. Ziel der A/B-Tests ist es, durch eine bessere Performance mehr Conversions zu erzielen.

Ein A/B-Test dient dazu, zwei nur leicht unterschiedliche Alternativen zu vergleichen. Selten werden auch mehr als zwei Alternativen verglichen, was allerdings die Auswertung der Ergebnisse schwieriger macht. Klassisch werden A/B-Tests eingesetzt, um das Design von Webseiten und Apps oder auch verschiedene Softwareoberflächen zu vergleichen. Welches Design kommt besser an? Auf welcher Programmoberfläche finden sich die Nutzer eher zurecht? Dabei kann mithilfe der Testergebnisse die Effizienz von Version A und Version B – zum Beispiel bezogen auf die Conversion Rate – getestet werden. Welche Version erzielt die beste Leistung? Bei welcher Variante werden mehr Leads oder Verkäufe  erzielt? So können A/B-Tests zum Beispiel dafür sorgen, dass in einem Onlineshop mehr Kaufabschlüsse erreicht werden.

Unser Beispiel:

Ein Onlineshop will herausfinden, ob der Call-to Action in seinem Newsletter lieber rot oder grün gestaltet werden sollte. Also werden zwei identische Newsletter erstellt, wobei nur die Button-Farbe variiert wird. Eine spezielle Software für A/B-Tests zeigt einer ausgewählten Gruppe von Newsletter-Abonnenten nach dem Zufallsprinzip abwechselnd beide Varianten. Nach dem Test kann ausgewertet werden, ob der grüne oder der rote Button für mehr Klicks gesorgt hat. In unserem Beispiel ist es der grüne Button, also wird der Newsletter an die restlichen Newsletter-Abonnenten mit dem grünen Button ausgeliefert. Denn er scheint die Kunden mehr anzusprechen. Anschließend will der Onlineshop noch testen, welche Art von Produktempfehlungen zu mehr Verkäufen führt. Also werden einer Kundengruppe Produkte aus der gleichen Kategorie empfohlen, einer anderen Kundengruppe werden hingegen Produkte der gleichen Marke angezeigt,, auch wenn sie einer anderen Kategorie entstammen. Anschließend kann auch hier ausgewertet werden, welche Empfehlungen zu mehr Kaufabschlüssen geführt haben. Entsprechend werden dann in Zukunft die Empfehlungen konfiguriert.

Welche Elemente können getestet werden?

Für einen A/B-Test bieten sich verschiedene Elemente einer Website, einer App oder eines Newsletters an. Nachfolgend findest Du einen Überblick über mögliche Testbereiche:

  • Überschriften: Welche Überschrift spricht die Besucher eher an? Spielen Schriftart und Schriftgröße eine Rolle?
  • Content/Texte: Welche Inhalte sorgen für eine längere Verweildauer? Welche Art von Produktbeschreibung sorgt für mehr Verkäufe?
  • Bilder: Welche Produktbilder erhöhen die Wahrscheinlichkeit eines Kaufs? Welche Bilder animieren den Kunden, tiefer in die Website einzusteigen? Wo sollten die Bilder platziert werden?
  • Buttons: Welche Button-Form wird eher angeklickt? Welche Buttonfarbe sorgt für mehr Aufmerksamkeit? Wo sollte der Button platziert werden? Wie groß sollte er sein?
  • Call-to-Actions: Welche Art der Ansprache führt zur gewünschten Reaktion? Wie sollte der Call-to-Action gestaltet sein (Button, Textlink)?
  • Navigation: Wie sollten die Navigationspunkte angeordnet sein? Wie finden sich die Kunden besser zurecht? Welche Navigationstiefe wird noch angenommen?
  • Formulare: Mit welchem Formular wird der Kaufprozess öfter abgeschlossen? Mit welchen Feldern haben die Kunden Probleme und brechen den Kaufprozess ab? Wie sollten die Felder am besten angeordnet werden?
  • Auswahl der Produktempfehlungen: Führen Artikelempfehlungen aus der gleichen Kategorie oder aus anderen Kategorien zu mehr Verkäufen? Welche Empfehlungen werden besonders oft angeklickt?

Welche Arten von A/B-Tests gibt es?

  • Klassischer A/B-Test: Hier werden verschiedenen Kundengruppen nach dem Zufallsprinzip zwei oder mehr Varianten angezeigt, wobei immer nur ein einzelnes Element verändert wird. Der Klassiker eignet sich zum Beispiel zur Testung von verschiedenen Newsletter-Varianten.
  • Split Test: Hier werden die Besucher an verschiedene URLs weitergeleitet. Ein Weiterleistungstest ist besonders zu empfehlen, wenn mehrere Website-Varianten getestet werden sollen.
  • Multivariater Test: Hier werden gleich mehrere Elemente auf derselben Seite verändert, um zu ermitteln, welche Kombination von den Kunden am besten angenommen wird. Ein Multivariater Test ist sehr komplex und eignet sich für spezielle Fragestellungen, z. B. indem Content, Hintergrund und Buttons gleichzeitig verändert werden.

Welche Tools für A/B-Tests gibt es?

Um A/B-Tests durchzuführen, gibt es verschiedene Möglichkeiten. Nutzt Du in Deinem Shop bereits eine Engine für Produktempfehlungen, ist oft schon ein entsprechendes Tool integriert. Ansonsten kannst Du auch externe Tools wählen.

Neben der Möglichkeit, im kostenlosen Google Analytics ein Testfeld einzurichten, gibt es je nach Unternehmensgröße und Budget auf dem Markt verschiedene spezielle Testing-Lösungen, wie Adobe Target, Optimizely oder Etracker Optimiser.

Worauf musst Du bei einem A/B-Test achten?

  1. Lege fest, welche Varianten Du testen willst. Beginne am besten mit nur zwei Varianten. Dabei sollten sich die Varianten nur in einem Detail unterscheiden, bei einem Newsletter etwa im Sitz des Buttons, in der Farbe des Hintergrunds oder im Content. Die anderen Elemente bleiben identisch.
  2. Überlege genau, ob alle Besucher als Testkunden infrage kommen. Je nach Testziel kann es sinnvoll sein, das Zielpublikum zu segmentieren. Wird zum Beispiel getestet, welche Elemente zu mehr Kundenregistrierungen führen, brauchen bereits registrierte Kunden nicht in den Test einbezogen werden, sondern nur Neukunden.
  3. Lasse den Test genug Kunden durchlaufen und sorge dafür, dass beide Varianten etwa gleich vielen Kunden gezeigt werden, um verwertbare Ergebnisse zu bekommen. Dabei musst Du eine bestimmte Messgröße festlegen, woran Du festmachst, dass eine Variante besser läuft. Bei dem Button-Beispiel ist die Anzahl der Klicks als Messgröße naheliegend.
  4. Übe Dich in Geduld, während der Test läuft. Je nach Kundenaufkommen kann es etwas dauern, bis genug Besucher beide Varianten zu Gesicht bekommen haben und Du genug verwertbare Daten gesammelt hast. In dieser Zeit solltest Du Dein Testfeld nicht anfassen. Testest Du beispielsweise zwei Designvarianten für Deinen Onlineshop, solltest Du während der Testphase nichts am Angebot oder am Content ändern, weil die Ergebnisse sonst verfälscht werden können.
  5. Zum Schluss kannst Du die Ergebnisse auswerten, wobei viele A/B-Test-Softwareanbieter dafür Hilfe bereitstellen. Bedenke aber immer, dass der A/B-Test nur eine Prognose der Wahrscheinlichkeit ist, dass eine Variante tatsächlich besser ankommt als die andere. Um die Conversions zu optimieren, sollten zusätzlich auch noch andere Instrumente eingesetzt werden, wie Web Analytics Daten, Usability-Tests oder Kunden-Feedback.

Fazit: A/B-Tests können zu mehr Conversions verhelfen

A/B-Tests haben das Ziel, aus zwei oder mehr Varianten von Newslettern oder Websites die Version mit der höchsten Effizienz zu ermitteln. Dabei werden zwei Gruppen von Testkunden nach dem Zufallsprinzip zwei unterschiedliche Varianten z. B. eines Newsletters zugeschickt, bei dem nur ein einzelnes Element verändert wurde. So kann beispielsweise getestet werden, welche Buttonfarbe für mehr Conversions sorgt. Getestet werden können beispielsweise verschiedene Überschriften, Content-Varianten, die Bilderauswahl, verschiedene Buttons und Call-to-Actions, unterschiedliche Versionen für die Navigation, für Formulare und für Produktempfehlungen usw. Je nach gewünschtem Testergebnis gibt es verschiedene Tools für A/B-Tests und auch verschiedene Testing-Arten.

Wichtig für aussagekräftige Testergebnisse ist, dass sich die Varianten nur in einem Detail unterscheiden, dass das Zielpublikum passend zum Test ausgewählt wird, dass beide Varianten etwa gleich vielen Kunden gezeigt werden, dass Du geduldig ohne weitere Veränderungen das Testergebnis abwartest und anschließend die Ergebnisse sorgfältig auswertest. Für eine optimierte Conversion Rate sollten neben A/B-Test zusätzlich auch andere Instrumente, wie Web Analytics oder Usability-Tests, zum Einsatz kommen.

Weitere Artikel zum Thema