Nachdem Julian Dziki in seinem Blog mal wieder eine Diskussion zum Thema Sichtbarkeit von Webseiten losgetreten hat, hab ich mich entschlossen an dieser Stelle einen Artikel zu veröffentlichen, den ich jetzt schon einige Zeit in der Schublade habe. Bisher hatte ich immer das Gefühl, damit eventuell einigen Leuten auf die Füße zu treten. Heute sehe ich das Ganze etwas anders. Ich denke ich kann konstruktiv etwas zur Verbesserung der Indexwerte beitragen. Mit den meisten Toolanbietern, die Monitoring betreiben, habe ich das Thema bereits vorab persönlich besprochen.
Inzwischen gibt es eine ganze Reihe von Anbietern, die es sich zur Aufgabe gemacht haben die Suchergebnisse von Google zu monitoren. Die Idee die ist in der Regel dahinter steckt ist es den Kunden Zahlen an die Hand zu geben, die eine Bewertung von Änderungen in den Suchergebnissen ermöglichen. Jeder der Anbieter analysiert dabei andere Keywords, interpretiert die Ergebnisse anders und jeder hat seine eigenen Modelle entwickelt, um aus den erhobenen Daten eine Indexzahl zu errechnen. Zweck dieser Indexzahl ist es unterschiedliche Webseiten bezüglich ihrer Leistung vergleichbar zu machen. Die Idee ist gut, die Datenerhebung und Speicherung meist ausgereift und durchdacht. Aus meiner Sicht mangelt es jedoch an den Verfahren zur Berechnung der Indexzahl. Diese sind oft vollkommen unbrauchbar, nicht durchdacht genug, mathematisch nicht haltbar und viel zu unflexibel, um mit den ständigen Veränderungen mitzuhalten.
Soweit der Rundumschlag, nun zunächst einige Hintergründe und dann dazu wie es besser gehen würde:
Als Seitenbetreiber habe ich ein Interesse daran, möglichst viele zielgerichtete Besucher auf meine Seite zu bekommen. Einer der Kanäle dafür ist SEO. Durch das Aussteuern von Onpage- und Offpage-Faktoren wird dabei versucht, bei möglichst vielen Suchphrasen eine gute Position in den Suchergebnisseiten der großen Suchmaschinen zu erzielen. Weiterhin wird versucht das Ergebnis-Snippet so zu verändern, dass eine hohe Klickrate erreicht wird. Das Ziel ist stets, möglichst viele Besucher abzugreifen.
Möchte ich meinen SEO-Kanal messen und vergleichen, so benötige ich dafür einen Indexwert. Dieser Indexwert muss den Besucherstrom auf meine Webseite abbilden. Dies bedeutet, dass der Indexwert mit dem Traffic meiner Webseite korrelieren muss. Besteht keine Korrelation, so habe ich entweder einen hohen Fehler in meiner Berechnung oder aber ich habe einen Indexwert geschaffen, der nicht oder nicht ausschließlich Besucherströme abbildet. In beiden Fällen eignet sich der Indexwert dann nicht zur Beurteilung des SEO-Kanals.
Wenn man es richtig machen will, ist es alles andere als simpel! Im Ursprungsartikel hatte ich an dieser Stelle jetzt die Indexwerte der einzelnen Anbieter auseinandergenommen, da das allerdings zu nichts führt, hier einfach mal mein Konzept für einen Indexwert:
Wie schon dargelegt: Der Indexwert muss mit dem Traffic korrelieren. Ein Sichtbarkeitsindex sollte darstellen, wie viele Besucher einzelne Webseiten aus den Suchergebnissen einer Suchmaschinen bekommen. Wenn es darum geht einen SEO-Kanal zu bewerten, ist alles was zählt, wie viele Besucher man abgreifen konnte oder könnte. Um den Traffic abzuleiten benötige ich Keywords, Suchvolumina, und die Klickraten auf die einzelnen Elemente. All diese Werte ändern sich ständig. Die große Herausforderung ist es, den Indexwert so zu gestalten, dass die berechneten Indexwerte auch nach Änderungen an diesen Werten noch vergleichbar sind. Auch Trend-Keywords sollte man jederzeit hinzufügen können und größere Layoutänderungen der Suchergebnisseiten sollten sich problemlos abbilden lassen.
Keyword | Suchvolumen | Anteil am Gesamtsuchvolumen |
---|---|---|
seo google | 201000 | 32,11 % |
google seo tool | 6600 | 1,05 % |
seo optimierung google | 320 | 0,05 % |
google seo tools | 201000 | 32,11 % |
seo für google | 201000 | 32,11 % |
google seo guide | 8100 | 1,29 % |
google seo optimierung | 320 | 0,05 % |
google maps seo | 2400 | 0,38 % |
google seo keywords | 1600 | 0,26 % |
google places seo | 3600 | 0,58 % |
Das Basis-Design lässt sich mit einer Reihe von Ansätzen noch verfeinern. Einige davon möchte ich kurz vorstellen:
Die Elemente einer Suchergebnisseite lassen sich sehr gut segmentieren. Es gibt neben den organischen Suchergebnissen z.B. noch Adwords-Anzeigen, den Knowledge-Graph und die Links innerhalb der Google-Webseite. Für all diese Segmente kann man durch Aufsummieren des prozentualen Anteils am Gesamttraffic einen Indexwert für das Segment bilden. Innerhalb der organischen Suche könnte man darüber hinaus für einzelne Webseiten auch noch nach Verzeichnissen oder URLs segmentieren.
Die Suchergebnisseiten werden durch die Rich-Snippets immer uneinheitlicher. Den Traffic bei der Berechnung stupide nach Positionen aufzuteilen ist daher wenig sinnvoll. Auch Elemente wie der Knowledge Graph und Google Adwords sowie die Hauptnavigation von Google bekommen Traffic und sollte daher gleichermaßen berücksichtigt werden. Am einfachsten wird dies, wenn man statt mit Positionen mit Links arbeitet. Den Traffic der auf eine Suchergebnisseite entfällt teilt man einfach anteilig auf alle Links auf.
Damit die Daten repräsentativ sind, müssen Keywords erfasst werden, die ein möglichst breites Themenspektrum abdecken. Idealerweise sollten sich auch saisonale Keywords und Trendkeywords im Index wiederfinden. Das Hinzufügen von neuen Keywords oder das Löschen ist möglich, da diese einfach einen Anteil am Gesamttraffic ausmachen. Solange nur wenige Keywords hinzugefügt oder entfernt werden, sollten sich die dadurch entstehenden Änderungen in Grenzen halten und man könnte diese sicher auch genau beziffern und damit transparent darstellen.
Die Schätzungen für das Suchvolumen und die Klickraten auf den Suchergebnisseiten sind sicher der größte Fehlerfaktor beim Berechnen eines Indexwertes. Ziel sollte es also sein, diese Schätzungen zu verbessern oder durch gemessene Zahlen zu ersetzen. Durch die Integration mit den Webmaster Tools könnte man die Schätzungen an einigen Stellen schon jetzt durch die Daten von Google ersetzen. Damit ließen sich wahrscheinlich die Fehler durch Schätzungen deutlich reduzieren. Je mehr Kunden ihre Daten bereitstellen, desto besser würde der Gesamtwert werden. Zusätzlich könnten auch Trafficpanels einen Anteil an dem Trafficindex bilden und unabhängig von Schätzungen direkt mit einbezogen werden.
Eine Vielzahl von Suchergebnissen ist inzwischen lokalisiert. Stellt ein Nutzer aus Berlin eine Anfrage, so erhält er andere Suchergebnisse als ein Nutzer in Köln. Monitort man lokalisierte Suchergebnisse, so wird man für ein und das selbe Ergebnis mehrere Suchergebnisseiten haben. Um diese in den Indexwert ordentlich einrechnen zu können teilt man das Suchvolumen für die unterschiedlichen lokalisierten Ergebnisseiten einfach ebenfalls prozentual auf und berechnet dann für jede Suchergebnisseite die prozentuale Verteilung. Nach dem selben Muster kann man auch abweichende Suchergebnisseiten einrechnen, die man z.B. durch tägliches Monitoring bekommt.
Berlin: x.x % | Köln: x.x % | Hamburg: x.x % | Leipzig: x.x % |
---|---|---|---|