Zeta Producer Blog

Erstellen Sie professionelle Websites nach Ihren Ideen. Ohne laufende Kosten. Ohne Vorkenntnisse. Mit deutschem Support. Mit Spaß.

Empfehlenswerte SEO-Add-ons

Verfasst am 18. Juli 2012

Erweiterungen für den Browser erfreuen sich immer größerer Beliebtheit. Die zusätzlich installierbaren Add-ons können ebenfalls bei der SEO-Analyse von Websites behilflich sein. Durch diese kann ein schneller jedoch teilweise nur oberflächlicher Ãœberblick über eine Website gewonnen werden.

Für Google Chrome und Mozilla Firefox gibt es jede Menge Tools , um eine Website ein wenig zu analysieren.

SEOquake

Das Seoquake Add-on ist sowohl für Google Chrome als auch für Mozilla Firefox erhältlich. Nach dem Download von der jeweiligen Website muss der Browser meist neu gestartet werden, damit das Add-On verwendet werden kann. Sowohl bei Mozilla Firefox als auch bei Google Chrome erscheint dann neben oder unterhalb der Suchleiste das entsprechend installierte Tool.

Bei SEOquake wird eine Vielzahl verschiedener Werte wie indexierte Seiten, PR, Alexa Rank und Domainalter angezeigt. Sollten Ihrer Meinung nach spezielle Werte zur Analyse einer Website fehlen, so besteht die Möglichkeit, dass mit einem Klick auf das Tool unter „Preferences“ bestimmte Parameter hinzugefügt oder entfernt werden können.Sollte die SEOquake-Leiste bei der Recherche über Google nicht bei jedem aufgelisteten Suchergebnis angezeigt werden sollen, so kann diese für verschiedene Suchmaschinen individuell unter „Preferences“-„Modules“ auf deaktiviert („disabled“) werden.

Screenshot „Preferences“-Ansicht – www.seoquake.com
Screenshot einer Suchanfrage „Desktop-CMS“ mit SEOquake

Sollte man nur zeitweise das Tool benötigen, so besteht die Möglichkeit, dass das Tool vorübergehend deaktiviert wird.

Mit dem Tool können innerhalb kürzester Zeit unter anderem folgende Werte eingesehen werden:

  • PR
  • Domainalter
  • Empfehlungen über soziale Netzwerke
  • Keyworddichte einzelner Wörter
  • Anzahl Backlinks
  • Alexa Rank
  • Meta Keywords und Meta Description
  • Interne und externe Links
  • Anzahl der Domains im Google/Bing/Yahoo Index

Fazit

SEOquake ist ein sehr hilfreiches Tool, um sich innerhalb kurzer Zeit einen Ãœberblick über eine Homepage zu schaffen. Da es sich um ein kostenloses Tool handelt, muss man dabei auch Abstriche machen. Teilweise sind bei diesem Tool Werte nicht abrufbar und somit erscheint der Wert 0, obwohl der Wert momentan „lediglich“ nicht abrufbar ist.

SEO Site Tools

Ein weiteres Add-On ist das SEO Site Tools  aus dem Google Chrome Store. Dabei handelt es sich um ein Tool, mit dem man ebenfalls die wichtigsten Werte einer Seite erhält.

Gegliedert ist das Tool in 6 Kategorien:

  • External Page Data
  • Page Elements
  • Social Media
  • Page Terms/Tools
  • Server/Domain Info
  • Suggestions

Bei External Page Data erhält man Informationen rund um die Links, die Autorität und die Popularität der Website. Um genauere Informationen über die angezeigten Werte zu erhalten, kann man auf dafür angelegte Links klicken und erhält eine genauere Analyse der Werte.

Unter Page Elements kann man Informationen rund um die On-page Optimierung der Website einsehen. Dort werden die Einzelne, vom Websitenbetreiber bestimmten, Meta Keywords oder die Meta Description angezeigt. Diese Daten können für die Analyse von Konkurrenten hilfreich sein. Es kann herausgefunden werden, welche Begriffe mit den verschiedenen Tags (h1, h2, h3, ..) benannt wurden. Außerdem kann man erkennen, welche Wörter auf der Seite verlinken und wie die einzelnen Bilder benannt werden.

Bei dem Reiter Social Media wird die Nutzung sozialer Netzwerke für die Website erkannt und dargestellt. Es wird ermittelt, wie viele Facebook- Likes   und Twitter- Tweets die jeweilige Seite hat.

Page Terms/Tools verlinkt zu verschiedenen kleinen Anwendungen mit der zum Beispiel die Keyworddichte oder die Ladezeit der Website ermittelt werden kann.

Server /Domain Info gibt Aufschluss darüber, bei welchem Anbieter die Domain registriert ist und wer der Besitzer (inklusive Adresse) dieser Domain ist.

Unter Suggestions werden Vorschläge gemacht, wie die Domain suchmaschinenoptimiert werden kann. Grün hinterlegte Felder bedeuten eine gute Optimierung der jeweiligen Empfehlung. Gelb weist darauf hin, dass dieser Aspekt noch besser optimiert werden könnte und rot weist auf eine schlechte Optimierung hin. Sollte man überlegen, ob man auf einer Seite einen Link platzieren will, so kann über „Link Quantity“ herausgefunden werden, wie viele Links die Seite bereits besitzt.

Fazit

Da dieses SEO-Tool auch kostenfrei angeboten wird, muss man in Kauf nehmen, dass Daten für manche Seiten teilweise nicht aktuell oder gar nicht verfügbar sind. Um sich nur oberflächlich über eine Seite einen Eindruck zu schaffen ist dieses Tool jedoch sehr hilfreich. Dadurch, dass man die gewünschten Werte bei Bedarf mit einem Klick auf die Lupe zugreifen kann, ist die Benutzung sehr komfortabel.

Will man lediglich herausfinden, mit welchen Keywords man bei Google an welcher Position rankt, so bietet sich SEO SERP  als Add-on an.

Screenshot des SEO SERP

Mit diesem Tool kann eine Suchanfrage simuliert werden. Nach Eingabe von Keyword, Suchmaschine und Website wird ermittelt, an welcher Position der Suchanfrage man gelistet wird. Sollte man die Suchanfrage über Google oder eine andere gewünschte Suchmaschine am Computer machen, so ist es möglich, dass die Ergebnisse durch andere Faktoren beeinflusst werden. (Da Suchmaschinen häufig den Ort des Computers lokalisieren, wäre es möglich, dass dementsprechend örtlich-nahe Ergebnisse angezeigt werden.) Zusätzlich werden noch Konkurrenten auf den obersten Plätzen der Suchanfrage angezeigt.

Für Nutzer von Mozilla Firefox ist  SERPTrends SEO Extension  eine Alternative.

Relevanz von Websiten: PR, TrustRank und Click-Popularity

Verfasst am 11. Juli 2012

Wie bereits erwähnt, steigt die Bedeutung von Websites für Suchmaschinen, je nachdem wie viele Seiten darauf verlinken. Sollte eine bedeutende Seite wie Wikipedia oder Welt online auf die eigene Website verlinken, so ist dies von größerer Bedeutung für Google als die Empfehlung von einem Beitrag in einem Blog. Der von den Google-Gründern selbst entwickelte PageRank (PR) soll nicht den Inhalte einer Website bewerten sondern die Beziehung zwischen existierenden Webseiten und deren Qualität. Um herauszufinden, wie hoch der PR einer Website ist, gibt es verschiedene Möglichkeiten. Zum einen gibt es zahlreiche Add-Ons für Browser, die den PR der Homepage anzeigen, zu anderen kann der PR aber auch über das Tool von SEO-Ranking-Tools.de ermittelt werden. Nach der Eingabe der URL und des Sicherheitscodes wird der PR der gewünschten Website ermittelt. Der PR ist eine Zahl zwischen 0 und 10.

Der PageRank-Algorithmus wurde von Lawrence Page und Sergei Brin entwickelt und zum Patent angemeldet. Der Name PageRank kommt daher von seinem Erfinder Lawrence Page. Dabei gilt es jedoch zu beachten, dass auch Websites mit dem PR 0 auf der TOP 3 bei einer Google Suchanfrage angezeigt werden können. Die Anzahl ausgehender Links einer Seite fließen in die Berechnung des PR mit ein.

Nach Page und Brin drückt der PR die Wahrscheinlichkeit aus, mit der ein Surfer eine Website besucht. Ausgegangen wird von einem „Random Surfer“, welcher beliebige Links nutzt, ohne dabei gezielt auf den Inhalt zu achten. Wer nachvollziehen will, wie der PageRank berechnet wird, kann dies hier versuchen.

Zu Bedenken dabei gilt, dass der angezeigte PR in der Toolbar oft nicht der aktuelle PR ist, mit dem Google rechnet. Es kann durchaus vorkommen, dass der Wert mit dem Google rechnet ein anderer, aktuellerer Wert ist.

Es lässt sich nicht verallgemeinern, dass nur Websites mit hohem PR ganz oben in der Suchergebnisliste angezeigt werden. Um eine gute Platzierung bei Google zu erreichen wirken zahlreiche Faktioren zusammen, welche genau das sind und wie die Gewichtung derer ist, weiß momentan keiner so genau – außer Google selbst.  

TrustRank

Ein Faktor, der ebenfalls über die Relevanz der Homepage informiert, ist der TrustRank (Trust=Vertrauen). Die Technologie hat sich Google im Jahr 2005 ebenfalls patentieren lassen. Um den TrustRank zu bestimmen, erhalten ausgewählte Websites eine Art Zertifikat. Dies bedeutet, dass sie als vertrauenswürdige Seite ausgezeichnet sind. Nimmt man an, dass vertrauenswürdige Seiten nicht auf Spam-Seiten verweisen, so lässt sich dadurch die Qualität der verlinkten Websites ableiten. Bekommt eine Homepage von einer von Google ausgewählten Website einen Link, so wird die Qualität der Homepage als  hochwertig eingestuft. Sollte diese Seite wiederum auf andere verlinken, so wird davon ausgegangen, dass der TrustRank zwar noch hoch ist, aber nicht so hoch wie eine von Google ausgewählte Homepage. Die Verteilung des TrustRanks kann man sich so vorstellen, dass die von Google ausgewählten Seiten ganz oben stehen und jeder weiterführende Links von Websites hat einen geringen TrustRank inne. Eine Homepage, die an der untersten Position der Pyramide ist, hat sozusagen einen sehr niedrigen TrustRank und  für  Websites ist es daher nicht nur von hoher Bedeutung, dass sie Links von Seiten mit hohem PR sondern auch zusätzlich einen hohen TrustRank besitzen.

Der Unterschied zum Page Rank besteht darin, dass der Trust Rank nicht abgerufen werden kann. Die Wahrscheinlichkeit, dass er Auswirkungen auf das Ranking hat, ist jedoch sehr hoch.

Click-Popularity

Durch die Click-Popularity wird dem Benutzer ermöglicht eine Art Bewertung für Internetauftritte zu geben. Das läuft so ab, dass der Suchmaschinen-Nutzer eine normale Suchanfrage startet und daraufhin eine übliche Ergebnisliste angezeigt bekommt. Wenn der Nutzer sich für ein Ergebnis entschieden hat und darauf klickt, aktiviert er einen Zähler und wird anschließend an die Zielseite weitergeleitet. Der Zähler speichert die Auswahl des bestimmten Eintrags in einer Datenbank ab. Der Suchmaschinen-Nutzer selbst bekommt damit recht wenig mit, denn das geschieht alles innerhalb weniger Sekunden. Da dieser Methode zufolge jeder Webseitenbesitzer die Click-Popularity beeinflussen kann, haben sich die Suchmaschinenbetreiber überlegt, wie sie das verhindern können:

Speicherung der IP-Adressen: Die IP-Adresse des Suchmaschinen-Nutzers wird mit dem Klick auf das Suchergebnis in der Datenbank gespeichert. Sollte innerhalb eines festgelegten Zeitraumes erneut Klicks von derselben IP-Adresse auf den gleichen Eintrag in der Datenbank gespeichert werden, wird der Zähler nicht erhöht. Diese Art die Manipulation von Websitenbetreiber einzuschränken hat jedoch eine gewisse Grenze. Internetuser, die bei jedem Einwahlverfahren eine neue IP-Adresse erhalten, können auch jederzeit die Seite erneut über die Suchmaschine aufrufen, ohne dass das Erhöhen des Zählers verhindert wird.

Verwendung von Cookies: Bei der Speicherung von Cookies handelt es sich um die Speicherung von Textdateien mit diversen Informationen, die auf der Festplatte des Nutzers abgelegt werden. Diese ermöglichen eine erneute Identifizierung des Nutzer, sobald er den gleichen Eintrag in der Google Ergebnisliste aufruft. Das Setzen von Cookies ist allerdings sehr fragwürdig und kann von Browsern prinzipiell verhindert werden.

Ein weiterer Faktor der Click-Popularity ist die Verweildauer des Besuchers. Eine durchschnittliche Verweildauer der Besucher kann mit Hilfe von Google Analytics ermittelt werden. Im Bezug auf die Click-Popularity wird jedoch ermittelt, wie lange der Suchmaschinen-Nutzer auf der ausgewählten Seite bleibt bis er wieder zurück zur Suchergebnisliste wechselt. So wird also vom Nutzer selbst ausgewertet, wie informativ die Seite für den Suchenden selbst ist. Dabei muss allerdings vorausgesetzt werden, dass der Nutzer überhaupt wieder auf die Ergebnisliste der Suchmaschine zurückgreift. Es ist durchaus möglich, dass der Suchende die Recherche nach einem aufgerufenen Ergebnis abricht. Die nächste Schwierigkeit ist, dass derjenige, der erneut auf das Ergebnis der Suchmaschine zugreift, auch wieder als der User identifiziert werden muss. Dies geschieht ebenfalls über die IP-Adresse oder über ein gesetztes Cookie. Diese Methoden, sind jedoch sowohl was die Berechnung der Verweildauer als auch die Berechnung der Klick-Häufigkeit angeht, nicht zu 100% eindeutig.