Bevor der Relaunch startet:

So erkennt ihr UX-Schwachstellen der Bestandsseite
Corporate Websites
UX
Website
Relaunch
14
Mai 2026

Website-Relaunches scheitern häufig, weil UX-Schwachstellen der Bestandsseite nicht systematisch erkannt werden. Nachdem wir bereits beleuchtet haben, warum Nutzerzentrierung die entscheidende Basis für das gesamte Projekt ist und wie UX grundsätzlich den Erfolg eines Relaunches steigert, gehen wir nun einen Schritt weiter in die Praxis.

Denn ohne eine strukturierte Analyse wiederholen sich alte Fehler oft unbemerkt im neuen Design. Dieser dritte Teil der Serie zeigt euch, welche Methoden – von heuristischen Evaluationen über datengetriebene Analysen bis zu Nutzertests – welche Schwachstellen aufdecken und wie ihr sie kombiniert, um ein vollständiges Bild eurer aktuellen Seite zu bekommen.

Ein Website-Relaunch startet oft mit großen Ambitionen: modernes Design, bessere Performance, höhere Conversion. Doch viele Projekte scheitern daran, dass die UX-Schwachstellen der bestehenden Website nie wirklich verstanden wurden. Was bleibt, ist ein neues Design mit denselben alten Problemen. 

Die zentrale Frage lautet deshalb nicht „Was gefällt uns nicht?“ sondern: 

"Die häufigste Frage vor einem Relaunch ist: Was soll die neue Website können? Die wichtigere Frage ist: Woran scheitert die alte? Wo brechen Nutzende ab, wo kommen sie nicht weiter, und warum? Wer das nicht beantwortet, startet mit blinden Flecken, egal wie gut das neue Design aussieht." 
Anna Theresa Volkmann, Geschäftsführung UX bei MOSAIQ

Die Antwort darauf liefert keine einzelne Methode. Unterschiedliche Ansätze decken unterschiedliche Schwachstellen auf. Wer weiß, welche Methode was leistet, kann gezielt die richtigen Werkzeuge kombinieren. 

Heuristische Evaluation: der strukturierte Expertenblick

Die heuristische Evaluation ist eine der etabliertesten Methoden, um UX-Schwachstellen schnell und kostengünstig zu identifizieren. UX-Expertinnen und -Experten prüfen die Website anhand bewährter Usability-Prinzipien, den sogenannten Heuristiken. 

 

Was dabei geprüft wird

Die bekanntesten Heuristiken stammen von Jakob Nielsen und umfassen unter anderem: 

  • Konsistenz: Die Gestaltung sowie die Funktionalitäten einer Anwendung folgen einem einheitlichen Muster. Buttons sehen aus wie Buttons, Links verhalten sich wie Links, und gleiche Aktionen führen immer zum gleichen Ergebnis. Inkonsistenz erzeugt Unsicherheit und kostet Vertrauen. 
  • Fehlervermeidung: Das Interface verhindert Fehler, bevor sie entstehen. Formulare geben klare Hinweise auf Pflichtfelder, Aktionen mit Konsequenzen müssen bestätigt werden und missverständliche Formulierungen werden von vornherein vermieden. 
  • Wiedererkennbarkeit: Nutzende sollen nicht nachdenken müssen, sondern auf Anhieb erkennen, was sie tun können. Optionen, Aktionen und Informationen sind sichtbar und kontextgerecht platziert, sodass keine kognitive Last entsteht. 
  • Klare Nutzerführung: Jederzeit ist ersichtlich, wo man sich befindet und was als Nächstes möglich ist. Breadcrumb, aktive Zustände in der Navigation und klare Seitentitel geben Orientierung, ohne dass Nutzerinnen und Nutzer aktiv danach suchen müssen. 

 

Typische Befunde 

In der Praxis zeigen sich dabei immer wieder ähnliche Muster: 

  • Buttons, die wie normaler Text wirken, während unterstrichene Headlines wie Links aussehen 
  • Menüpunkt „Lösungen“, unter dem sich sowohl Produkte als auch Dienstleistungen verstecken 
  • Formulare, die nach dem Absenden keine Bestätigung zeigen 
  • Hauptnavigation mit zwölf gleichwertigen Punkten, bei der unklar bleibt, was wichtig ist 

 

 

Die Grenze der Methode 

Heuristische Evaluationen bleiben expertenbasiert und damit subjektiv. Was ein UX-Profi als Problem erkennt, muss nicht das sein, woran echte Nutzende scheitern. Die Methode liefert eine solide Grundlage, aber keine vollständige Antwort. 

Datengetriebene Verhaltensanalyse: was Nutzende wirklich tun

Während Heuristiken auf Prinzipien basieren, liefert datengetriebene Verhaltensanalyse Einblicke in tatsächliches Nutzerverhalten. Drei Ansätze stehen dabei im Mittelpunkt: 

 

Heatmaps 

Visualisieren Klick-, Scroll- und Aufmerksamkeitsmuster. Sie zeigen: 

  • Welche Bereiche ignoriert werden 
  • Welche Elemente fälschlicherweise als klickbar wahrgenommen werden 
  • Wo Nutzende abbrechen, weil sie nicht weiterkommen 

So wird auf einen Blick sichtbar, ob wichtige Inhalte und CTAs überhaupt wahrgenommen werden oder im toten Winkel der Seite verschwinden. 

 

Session Recordings

Zeichnen individuelle Sitzungen der Nutzenden auf und machen konkrete Stolpersteine sichtbar. Etwa Rage Clicks auf nicht funktionierenden Elementen oder Irrwege durch unklare Menüstrukturen. Was in Analytics nur als Absprung erscheint, bekommt hier ein Gesicht und einen nachvollziehbaren Grund. 

 

Web Analytics 

Ergänzt das Bild durch quantitative Daten: 

  • Wo steigen Nutzende aus? 
  • Welche Seiten haben ungewöhnlich hohe Absprungraten? 
  • Welche Zielseiten werden nie erreicht, obwohl sie Teil der Journey sein sollten? 

Der Vorteil: Strukturelle Probleme werden im großen Maßstab erkennbar, nicht nur bei einzelnen Nutzenden. 

 

Das Zusammenspiel macht den Unterschied 

Qualitative Einblicke aus Recordings und quantitative Muster aus Analytics ergänzen sich dabei ideal. Erst in der Kombination wird sichtbar, was wirklich passiert: Bilder, die wie Links wirken, aber keine sind. Formulare, bei denen Nutzende an immer derselben Stelle abbrechen, ohne dass die Zahlen allein erklären würden, warum. 

Nutzertests: echte Menschen, echte Probleme

Heuristiken und Daten decken viel auf, aber sie erklären nicht immer das Warum. Genau hier setzen Nutzertests an. 

 

So funktioniert es

Nutzende bekommen konkrete Aufgaben, die sie auf der Website erfüllen sollen. Etwa ein Produkt finden, ein Formular ausfüllen oder eine Information abrufen. Beobachtet wird: Wo wird gestockt? Wo wird falsch geklickt? Wo wird abgebrochen? 

 

Typische Erkenntnisse 

  • Begriffe, die intern klar sind, bei Nutzenden aber Verwirrung auslösen 
  • Navigationspfade, die aus Expertensicht logisch wirken, für Außenstehende aber unverständlich bleiben 
  • Aufgaben, die technisch funktionieren, aber an falschen Annahmen über die Nutzerintention scheitern 

Nutzertests lohnen sich besonders dann, wenn im Relaunch grundlegende Strukturentscheidungen getroffen werden. Etwa wenn die Navigation neu aufgebaut, die Strukturierung der Produkte überarbeitet oder ein mehrstufiger Prozess wie eine Anfrage oder Buchung vereinfacht werden soll. 

Technische und systemische UX-Barrieren: was unter der Oberfläche liegt

UX-Schwachstellen stecken nicht immer im Design. Langsame Ladezeiten, fehlende Barrierefreiheit oder inkonsistentes Verhalten auf verschiedenen Geräten sind genauso wirksame Nutzungsprobleme wie ein unklares Menü. Wer diese Ebene im Relaunch ignoriert, löst nur die sichtbaren Symptome, nicht die eigentlichen Ursachen. Die entscheidende Frage lautet deshalb: Warum scheitern Nutzende an mehreren Stellen ähnlich? Oft steckt dahinter keine einzelne Schwachstelle, sondern ein strukturelles Problem, das sich durch die gesamte Website zieht. 

Fazit: Kombination statt Alleingänge

Keine einzelne Methode deckt alle UX-Schwachstellen auf. Die Stärke liegt in der gezielten Kombination: 

  • Heuristische Evaluation → schnelle Basis-Checks und Expertenblick 
  • Datengetriebene Analyse → Verhaltensmuster und quantitative Hinweise 
  • Nutzertests → echte Stolpersteine und das Warum dahinter 
  • Technische Audits → Performance, Barrierefreiheit, strukturelle Konsistenz 

Wer UX-Schwachstellen vor einem Relaunch systematisch erkennt, vermeidet die teuerste aller Fehlerquellen: alte Probleme in neuer Verpackung. 

Autor:in

Anna Theresa

UX