Wer A sagt, sollte auch B Mal ausprobieren

Dass Digitales Design mehr bedeutet, als eine Webseite »hübsch zu machen« ist eine Binsenweisheit. Auf einer von uns gestalteten Seite sollen sich die Nutzer nicht nur wohl fühlen, sondern zurechtfinden und ans Ziel kommen. Erst das ist für uns gutes »User Experience Design«.

Was das konkret heißt, muss in jedem Projekt immer wieder neu ausgefochten werden. Da gibt es den Anspruch des Designers, anders zu sein, neu, überraschend, ästhetisch. Und da gibt es den Wunsch der Konzepterin, klar zu sein, zielgerichtet, »conversion-orientiert«. Kommt dann von Kundenseite noch eine dritte Sichtweise hinzu (»Ist doch gut so wie es war«), wird’s kompliziert.

In solchen Fällen macht es nach unserer Erfahrung Sinn, die Diskussion auf eine objektive Ebene zu bringen. Ein gutes Instrument dafür ist das A/B-Testing. Dabei werden zwei Varianten einer Seite oder eines Seitenelements produziert und je der Hälfte der Nutzer entweder die eine oder die andere Version angezeigt. Sodann kann anhand der Klickzahlen verglichen werden, welche Variante im Sinne des vorab definierten Ziels besser abschneidet. 

Ein berühmtes Beispiel entstammt der Spendenkampagne von Barack Obama aus dem Wahlkampf von 2008. 

Hier wurden drei verschiedene Bilder in Kombination mit drei Button-Beschriftungen getestet. Es gab ein eindeutiges Ergebnis: Eine der Kombinationen schnitt so viel besser ab, dass nach Schätzungen der Verantwortlichen 40% mehr Spenden erzielt werden konnten - das sind 60 Millionen Dollar! Wer kann erraten, welche Kombination das war?

US-Wahl 2008, A/B Testing der Obama Kampagne, verschiedene Bildmotive
US-Wahl 2008, A/B Testing der Obama Kampagne, verschiedene Bildmotive
US-Wahl 2008, A/B Testing der Obama Kampagne, verschiedene Bildmotive
US-Wahl 2008, A/B Testing der Obama Kampagne, verschiedene Buttons
US-Wahl 2008, A/B Testing der Obama Kampagne, verschiedene Buttons
US-Wahl 2008, A/B Testing der Obama Kampagne, verschiedene Buttons
US-Wahl 2008, A/B Testing der Obama Kampagne, verschiedene Buttons

In unseren Projekten geht es zwar nicht um derartige Summen - weder an Geld noch an Nutzern. Aber für uns lohnt es sich dennoch, eine Version gegen eine andere zu testen. Sinn macht das vor allem bei Seiten, die stark conversion-orientiert sind (sog. Landingpages), die also ein ganz konkretes Ziel haben (z.B. Bestellung, Kontaktanfrage, Registrierung). Damit das Ergebnis aussagekräftig bleibt, sollte beim A/B-Test tatsächlich nur eine Variable geändert und auf ihre Wirksamkeit getestet werden.

A/B-Tests helfen dabei, Entscheidungen zu vermeiden, die auf bloßer Intuition oder vermeintlicher »Erfahrung« beruhen. Denn die Forschung hat gezeigt: Bisher lassen sich kaum allgemein gültige Regeln formulieren, welche Art von Web-Design oder Web-Texten grundsätzlich besser funktioniert.

Das heißt nicht, dass wir uns sklavisch den Ergebnissen von A/B-Tests ausliefern. Schließlich sind wir noch immer ein Design-Büro und kein rein datengetriebenes Unternehmen wie Google. Dort kündigte vor Jahren der Chefdesigner, weil er es leid war, 41 verschiedene Blauschattierungen gegeneinander zu testen, um zu schauen, welche besser »performen«.

Wir behalten uns vor, im Zweifel für die Ästhetik und gegen die Conversion zu entscheiden.
Aber erstmal die Fakten zu kennen, schadet nie.

Die Aufllösung wollen wir nicht schuldig bleiben: Mit Abstand die besten Ergebnisse erzielte die Kombination aus Familienbild und dem Button "Learn more".

Auch interessant

CLOSE
close