SEO-Tools richtig nutzen: Nicht jedes Problem ist ein Problem

17. 05. 2024
|
SEO Wissen & Tipps
|

2.561 fehlende Alt-Attribute, 978 doppelte Title Tags, auf 722 Seiten fehlt die H2, 11.243 Seiten haben keine Meta Description.

Ist das das Ende der Sichtbarkeit meiner Website in den Suchergebnissen?

Nein, keineswegs. Nicht jedes “Problem” in Online-Marketing-Tools ist ein echtes Problem und nicht alle Daten sind relevante Daten. Wenn man versteht, wie SEO-Tools funktionieren und wie ihre Daten zu deuten sind, sind sie mächtige Begleiter und helfen uns enorm bei der Arbeit. Werden die Metriken und Zahlen allerdings missverstanden oder aus dem Zusammenhang gerissen, können sie zu falschen Schlussfolgerungen führen und Zeit und Geld verbrennen.

In diesem Artikel sehen wir uns einige der häufigsten Missverständnisse rund um SEO-Tools an und wie sie gezielt eingesetzt sowie die ausgespielten Daten sinnvoll interpretiert werden können.

SEO-Tools und ihre Daten

Mithilfe von SEO-Tools können verschiedene Faktoren einer Website analysiert und in Form von Zahlen Ergebnisse ausgespielt werden. Darin sind die Programme unschlagbar, sowohl was die Präzision als auch die Effizienz betrifft. Was sie allerdings nicht können, ist die richtige Interpretation dieser Ergebnisse. Es liegt an uns, zu entscheiden, wie aussagekräftig die Zahlen sind, und davon die richtigen Schlussfolgerungen abzuleiten.

Es ist die Aufgabe der Tools, Daten auszuspielen. Es ist unsere Aufgabe, diese Daten zu interpretieren.

Denn ohne eine kontextabhängige Interpretation haben die Zahlen keine Bedeutung und somit auch keinen Bezug zur Realität. Nur wer die Zahlen versteht und ihre Relevanz beurteilen kann, kann auch die richtigen Entscheidungen zu notwendigen Optimierungsmaßnahmen treffen. Genau darum soll es im Folgenden gehen: die richtigen Aktionen aus den Zahlen abzuleiten.

Don’t panic: Nicht jedes Problem ist ein Problem

Die zentrale Aufgabe von SEO-Tools ist es, Fehler zu finden. Also finden sie auch Fehler – auf so gut wie jeder Website. Vor allem Einsteiger oder Website-Betreiber ohne fundierte SEO-Kenntnisse können die zahlreichen „Warnungen“ und „Fehler“ diverser SEO-Tools schnell verunsichern. Nur wie aussagekräftig sind solche Fehlermeldungen wirklich? Bevor man also in Panik verfällt, sollte man erstmal tief durchatmen und sich fragen:

  1. Welche Fehler sind relevant und welche irrelevant?
  2. Welche Probleme müssen unbedingt gelöst werden, welche sind nur Schönheitsfehler und welche Probleme sind gar keine Probleme?
  3. Was hat tatsächlich Auswirkungen auf die Rankings und die User Experience?
  4. Und nicht zuletzt: Wie groß ist der Aufwand, um den Fehler zu beheben? Lohnt es sich oder steht der Aufwand in keiner Relation zur Wirkung?

Warnungen in der Google Search Console

Schauen wir uns zuerst das wohl wichtigste Tool an, das Webmastern und SEOs zur Verfügung steht: die Google Search Console. Es handelt sich um das einzige Tool, das Daten direkt von Google bereitstellt. Wir empfehlen jedem, der eine Website betreibt oder Websites baut, diese in der Google Search Console zu verifizieren, um Zugang zu diesen Daten zu erhalten.

Von der Google Search Console bekommt man Informationen zum Indexierungsstatus einer Website, zu Rankings und Klicks aus der Google Suche und zu den Core Web Vitals. Und natürlich gibt die GSC auch Warnungen bzw. Fehler aus.

Manche lassen sich von jeder Warnung beunruhigen, andere wieder ignorieren die Meldungen einfach und löschen sie direkt aus dem Posteingang. Ersteres verursacht unnötigen Stress, Letzteres kann dazu führen, dass Probleme vernachlässigt werden, die der Performance der Website tatsächlich schaden können.

Zu den häufigsten Warnungen aus der Google Search Console gehören:

Nicht indexierte Seiten

Die GSC informiert darüber, welche Seiten nicht indexiert werden und warum dem so ist. Ob das allerdings ein Problem ist oder nicht, muss man selbst bewerten und ist vom jeweiligen Kontext abhängig. Meistens besteht kein Grund zur Sorge, doch manchmal weisen die Fehlermeldungen auch auf ernstzunehmende Probleme hin.

Ist es ein Problem, wenn 114.000 URLs via „noindex“ vom Crawling ausgeschlossen sind?

Problem: Die Warnung kann ein Hinweis sein, dass sich versehentlich ein „noindex“ eingeschlichen hat, ohne dass man es bemerkt hat.

No Problem: Wurden die Seiten aus gutem Grund von der Indexierung ausgeschlossen, damit zum Beispiel Google nicht wertvolle Ressourcen mit dem Crawlen und Indexieren von unwichtigen Seiten verschwendet, dann ist alles okay.

Sind 404-Fehler ein Problem?

Problem: Sind wichtige URLs betroffen – Landing Pages oder Artikel, die viele Backlinks bekommen – kann enormer Wert für SEO verloren gehen. Auch wenn die 404-Fehler aufgrund fehlerhafter interner Links auftreten, ist das für Nutzer und für die Qualität der Website insgesamt problematisch.

No Problem: Wenn ich gerade 500 Produkte aus meinem Shop gelöscht habe oder alte, unwichtige Beiträge aus meinem Blog ausmiste, werden naturgemäß plötzlich viele 404-Fehler angezeigt. Immerhin wurden die Seiten gelöscht und ein 404-Code vom Server ist die korrekte Antwort – vorausgesetzt es gibt keine anderen Produkte, die die gleiche Nutzerintention befriedigen und auf die ich weiterleiten könnte.

Core Web Vitals

Es ist allgemein bekannt, dass die Ladezeit ein wichtiger Faktor ist – sowohl für Nutzer als auch für Google. Der Begriff “Ladezeit” war lange Zeit schwammig definiert und dadurch schwer zu messen, weshalb Google die sogenannten “Core Web Vitals” eingeführt hat, um Webmastern klare Daten zur Ladezeit einer Website zur Verfügung zu stellen. Diese sieht man sowohl in der GSC als auch in den PageSpeed Insights. Vereinfacht beschrieben geht es dabei um drei wichtige Faktoren:

  1. Wie schnell lädt eine Seite? Also: Wie lange dauert es, bis das wichtigste und größte Element auf einer Seite dargestellt wird und der Nutzer nicht mehr einen weißen Screen vor sich sieht. Dieser Wert wird LCP (Largest Contentful Paint) genannt.
  2. Wie schnell reagiert eine Seite auf Aktionen der Nutzer? Also: Wie schnell passiert etwas, wenn Nutzer auf einen Link klicken, ein Formular ausfüllen oder eine Suche durchführen. Dieser Wert hat erst im März 2024 den First Input Delay als Messwert abgelöst und wird als INP (Interaction to Next Paint) bezeichnet.
  3. Und zuletzt wird noch die visuelle Stabilität gemessen. Dieses als CLS (Cumulative Layout Shift) bezeichnete Phänomen macht sich bemerkbar, wenn man etwas anklicken will, das Element sich aber im letzten Moment verschiebt und man unabsichtlich auf einen anderen Bereich klickt.

 

Für jeden dieser KPIs gibt es in der GSC drei Bewertungsmöglichkeiten: Gut, Optimierung erforderlich und schlecht. PageSpeed Insights gibt zusätzlich noch einen Wert zur Gesamtleistung von 1–100 an, wobei 100 der bestmögliche Wert ist.

Natürlich ist ein höherer Score besser, die Frage ist nur: Wie viel besser? Und lohnt sich der Aufwand, also: Wirkt sich die Optimierung auf die Rankings aus?

 

Hier kommen, wie so oft bei SEO, verschiedene Faktoren ins Spiel:

  • Wer ist die Zielgruppe bzw. wo befindet sie sich und welche Geräte nutzt sie? Wenn die Endnutzer in Ballungszentren sind und hauptsächlich High-End-Geräte verwenden, wird ein durchschnittlicher Wert genügen. Die Nutzer werden den Unterschied kaum merken. Ist die Zielgruppe jedoch international verteilt, befindet sie sich in Gebieten mit schlechter Internetabdeckung und nutzt veraltete Geräte, muss man sich deutlich mehr bemühen, um ihnen eine halbwegs gute Nutzererfahrung bieten zu können.
  • Wie schnell ist die Konkurrenz? Wenn man der einzige Anbieter von hochwertigem Content zu einem bestimmten Thema ist, wird man damit gut ranken, auch wenn die Ladezeiten allesamt im roten Bereich sind. Ladezeit gewinnt nicht über Content!

 

Sehen wir uns diese Kriterien am Beispiel einer informationalen Suche nach Robbenarten in Großbritannien an:

Für das Keyword rankt an erster Stelle ein sechs Jahre alter Blog-Beitrag mit sehr guten Inhalten, 18 tollen – selbstgemachten – Fotos und gut recherchierten informativen Texten:

Doch die Ladezeit der Seite ist eine Katastrophe. Die Zeit bis zum Largest Contentful Paint beträgt fast 10 Sekunden, was nicht weiter verwunderlich ist, da das erste Bild über 8 MB groß ist:

Dennoch rankt die Seite auf Platz 1. Und das, obwohl die Konkurrenz einen nahezu perfekten Pagespeed und eine viel höhere Domain Authority aufweist, wie z.B. die WWF-Seite über Robben:

Das soll nicht heißen, dass es keinerlei Auswirkungen auf die Rankings hat, wenn eine Seite überhaupt nicht optimiert ist. Aber es zeigt, dass für Google immer noch die Qualität und Relevanz des Inhalts einer Seite an erster Stelle stehen. Wenn man den mit Abstand besten und relevantesten Content hat, kann man auch mit einer – aus SEO-Sicht – schlechten Seite gut ranken.

Aber Achtung: Umgekehrt funktioniert das nicht! Nur weil eine Seite schnell lädt, rankt sie noch lange nicht gut.

Das heißt: Ladezeiten sind zwar ein Rankingfaktor (wobei niemand weiß, wie dieser genau funktioniert und wie viel Gewicht er hat), im Grunde geht es aber um die Optimierung der Nutzererfahrung.

Wenn man sich in den Zahlen verliert und nur auf einen besseren Score hin optimiert, wird man höchstwahrscheinlich Ressourcen verschwenden und – wenn überhaupt – eher mäßige Erfolge verbuchen. Wertet man die Zahlen aber mit dem Ziel aus, die Nutzererfahrung zu verbessern, spart man Ressourcen und erreicht gleich eine Reihe von Verbesserungen: bessere UX, höhere Conversion Rate, bessere Rankings.

Unser Tipp: Legen Sie Ihren Fokus auf UX, nicht nur auf bessere Zahlen.

Sichtbarkeitsindex

Einige SEO-Tools, wie Sistrix oder Xovi, berechnen einen allgemeinen Sichtbarkeitsindex von Websites. Dieser Index gibt eine guten Überblick über die Entwicklung der Rankings einer Website in einem bestimmten Zeitraum. Man sieht auf einen Blick, ob die Website insgesamt stark ist und ob sie von diversen Google-Updates getroffen wurde.

Aber ist der Sichtbarkeitsindex ein KPI, der für die eigene Website einen besonderen Stellenwert einnehmen soll?

Schauen wir uns an, was dahintersteckt: Dem Visibility Index von Sistrix liegt ein Set von einer Million oft verwendeter Keywords zugrunde. Das Tool prüft, für wie viele dieser Keywords eine bestimmte Domain ein Ranking in den Top 100 hat. Der Wert, der dabei herauskommt, hängt von mehreren Faktoren ab und weist einige Unschärfen auf:

  • Die Keyword-Auswahl: Welche und wie viele Keywords werden vom Tool berücksichtigt? Ändert sich die Anzahl oder die Auswahl der Suchbegriffe? Im Fall von Sistrix schon, da das Tool immer wieder neue Keywords aufnimmt und somit auf neue Trends eingeht. Xovi tut das nicht und bleibt einer konstanten Liste treu.
  • Größe der Nische: Wie groß ist die Nische, in der eine bestimmte Website angesiedelt ist? Je breiter das Thema, desto größer ist die berechnete Sichtbarkeit. Eine Website mit viel Content zu populären Themen kann eine sehr hohe Sichtbarkeit haben. Auf der anderen Seite wird eine Website zu einem Nischenthema, die nur für 5 bis 10 Keywords rankt, einen niedrigen – oder bedeutungslosen – Wert haben.
  • Suchvolumen: Die Tools berücksichtigen das Suchvolumen bei der Berechnung der Sichtbarkeit – es sind also nicht alle Keywords gleich gewichtet. Ändert sich nun das Suchvolumen für ein Set an Keywords, kann das schnell zu Schwankungen in der Sichtbarkeit führen. Das gleiche Prinzip führt auch zu Verzerrungen zwischen bekannten und unbekannten Marken. Beide ranken für ihren Brand-Namen auf Platz 1, aber dieses Ranking wirkt sich im Fall einer bekannten Marke, für die es ein hohes Suchvolumen gibt, viel stärker aus als bei einer unbekannten Marke.
  • CTR – Klickrate: Auch die CTR wirkt sich auf die berechnete Sichtbarkeit aus. Veränderungen auf der Suchergebnisseite, wie z.B. eine andere Anordnung von Elementen oder das Hinzukommen eines Featured Snippets, können erhebliche Auswirkungen auf die Sichtbarkeit haben.

 

Ist die eigene Website also in einer kleinen Nische und zielt auf Rankings für wenige wichtige Keywords ab, hat der Sichtbarkeitsindex nahezu keine Bedeutung. Hier muss man unbedingt die eigenen Keywords ins Tool füttern und gezielt die Rankings für diese wichtigen Suchbegriffe verfolgen.

Spielt man hingegen in einem breiten Feld und möchte für tausende Keywords ranken, die man nicht alle über Listen tracken kann, ist der Visibility Index durchaus ein aussagekräftiger Wert.

Insbesondere für Agenturen sind diese Tools aber sehr wertvoll, da man auch ohne Kundendaten einen Einblick in die SEO-Performance von Websites bekommt. Man kann also mehrere Marktteilnehmer auf Basis der gleichen Messdaten vergleichen. Als Bonus findet man zu allen auch nützliche historische Daten.

SEO-Score & Analysen aus (gratis) Tools

Der SEO-Score wird häufig als Metrik zur Bewertung von Websites herangezogen, allerdings sollte der Wert differenziert betrachtet werden. Denn für sich allein ist der SEO-Score weitgehend sinnbefreit. Er ist nur in Zusammenhang mit anderen Kennzahlen (z. B. dem Wert des Vorjahres) oder im Vergleich zu den Zahlen eines direkten Konkurrenten aussagekräftig.

Zusätzlich um SEO-Score, bekommt man von diesen Tools meist eine Liste von To-dos vorgeschlagen, teilweise als “sehr wichtig” gekennzeichnet. Mit Rufzeichen und rot markiert, damit man sofort in Alarmbereitschaft versetzt wird. Steht der Untergang kurz bevor? Wird die Website in den Google-Rankings abstürzen?

Immer mit der Ruhe! Zwar sind die Aussagen grundsätzlich richtig, nur fehlen jeglicher Kontext und die notwendigen Details.

Sehen wir uns einige der häufigsten Fehlermeldungen im Detail an:

2.561 fehlende Alt-Attribute

Ob diese Fehlermeldung von Bedeutung ist, hängt davon ab, ob Sie mit Ihren Bildern ranken wollen oder nicht. Fragen Sie sich also: Sind meine Bilder überhaupt relevant? Ist Barrierefreiheit wichtig für meine Nutzer? Wenn nicht, gibt es keinen triftigen Grund, sich die Arbeit zu machen, Alt-Attribute zu verfassen.

978 doppelte Title Tags

Das ist dann ein Problem, wenn alle wichtigen Landing Pages den identischen Title Tag haben. In 99 % der Fälle bezieht sich die Warnung aber auf Seiten, bei denen es okay ist, wenn sie keinen einzigartigen Title haben. Das Impressum für Österreich hat den gleichen Title Tag wie das Impressum für Deutschland? Kein Problem. Unwichtige Versionen von Produktseiten, die alle via Canonical Tag auf die Hauptversion zeigen, haben den gleichen Title Tag? Auch kein Problem.

722 Seiten ohne H2

Im Idealfall hat natürlich jede Seite eine schöne Überschriftenstruktur mit einer H1, die das Haupt-Keyword enthält, mehreren H2 und nach Bedarf H3 bis H5. Allerdings unterscheidet das Tool nicht, ob die H2 auf einer wichtigen Landing Page fehlt oder auf einer Seite, mit der man ohnehin nicht ranken will. Es ist Ihre Aufgabe, die Wertigkeit der jeweiligen Seite zu bestimmen und dementsprechend abzuwägen, ob sich der Aufwand lohnt.

11.243 Seiten ohne Meta Description

Kein Weltuntergang: Zum einen sind Meta Descriptions kein Ranking-Faktor, zum anderen generiert Google automatisch ein Snippet, wenn eine Seite keine Meta Description bereitstellt. Manchmal ist es den Aufwand nicht wert und man kann getrost Google die Arbeit überlassen.

 

Das klingt nun fast so, also könnte man sämtliche Warnungen ohne Konsequenzen in den Wind schlagen. Darum geht es jedoch nicht. Der Punkt ist vielmehr, dass Auswertungen aus – zumeist kostenlosen – SEO-Tools oft sehr wenig differenziert sind und man sich von den vielen Warnungen nicht beunruhigen lassen sollte. Es empfiehlt sich, die Warnungen zwar zur Kenntnis zu nehmen, aber nicht sofort in Panik zu geraten.

Fokus auf die Basics

Unsere Empfehlung ist: Lassen Sie sich nicht von den Daten verunsichern und laufen Sie nicht jedem Trend bzw. der Verbesserung jedes Scores blind hinterher. Analysieren Sie in Ruhe, welche Daten für Sie relevant sind und konzentrieren Sie sich auf die Basics:

  • Solide Keyword-Strategie: Was sind die relevanten Suchbegriffe Ihrer Zielgruppe?
  • Sinnvolle Struktur: Erstellen Sie eine sinnvolle Informationsarchitektur und gliedern Sie die Website gut.
  • Gute Inhalte: 100 % ChatGPT wird nur kurzfristig ranken und die User auf Dauer nicht zufriedenstellen.
  • Autorität aufbauen

 

Damit gewinnt man das Rennen. Nicht mit einem um 5 Punkte höheren SEO-Score.