Zeta Producer Blog

Erstellen Sie professionelle Websites nach Ihren Ideen. Ohne laufende Kosten. Ohne Vorkenntnisse. Mit deutschem Support. Mit Spaß.

Checkliste zur Erstellung von Webseiten

Verfasst am 05. September 2013

Der öffentliche Webauftritt ist heutzutage für viele Vereine, Organisationen oder Selbstständige eher die Regel als die Ausnahme. Wo früher noch professionelle Webagenturen beauftragt wurden, die Gestaltung der Internetpräsenz zu übernehmen, helfen heute Content Management Systeme (CMS). Ein CMS ermöglicht dem Laien seine eigene Homepage zu erstellen, ohne dass dieser im Besitz von Programmierkenntnissen sein muss.

Bevor die Website veröffentlicht wird, sollte jedoch überprüft werden, ob die wichtigsten Punkte erfüllt sind.

Zeta-Producer-Desktop-CMS-Website-Checkliste

Usability

Ihre Website sollte in den gängigsten Browsern korrekt dargestellt werden, lange Ladezeiten von Bildern und Multi-Media Inhalten gilt es zu vermeiden. Sollten Sie Hyperlinks auf Ihrer Website eingebunden haben, so vergewissern Sie sich, dass diese auch funktionieren. Für den Fall, dass ein Besucher mit Ihnen in Kontakt treten möchte, ist es ratsam, ein Kontaktformular standardmäßig in Ihre Webpräsenz einzubinden.

Content

„Content ist King“! Dieser Spruch ist immer wieder zu hören, wenn es darum geht, was eine erfolgreiche Website ausmacht. Fragen Sie sich deshalb vor jedem Eintrag, bietet diese Information einen Mehrwert für meinen Besucher?

Haben Sie passenden Inhalt gefunden und wollen diesen veröffentlichen, dann achten Sie darauf, dass ihr Artikel sinnvoll strukturiert ist. Aussagekräftige Überschriften und Absätze im Text helfen, den Artikel lesbar zu machen.

Lassen Sie den Artikel vor der Veröffentlichung von einem Freund oder Kollegen gegenlesen. Oftmals ist man selbst so in das Thema vertieft, dass es für Außenstehende schwierig ist, die Kernaussage zu verstehen.

Suchmaschinenoptimierung (SEO)

Sie haben eine interessante Website mit gutem Inhalt entworfen, aber keine besucht sie? Dann könnte es womöglich daran liegen, dass keiner Ihre Seite über eine Suchmaschine findet. Auch wenn Sie von Programmierung wenig Verständnis haben, so ist es doch sinnvoll, einen Blick in den Quelltext der Website zu werfen.

Überprüfen Sie Title-und Description Tags. Suchmaschinen bewerten den darin enthaltenen Inhalt und Kategorisieren diesen. Die Auswahl der richtigen Keywords ist hierbei von enormer Bedeutung.

Überschriften werden mit Hilfe von Tags, die von H1 bis H6 reichen, gegliedert. Achten Sie deshalb darauf, dass wichtige Keywords mit H1 und H2 deklariert sind.

Suchmaschinenoptimierung ist im Laufe der Zeit eine eigenständige Disziplin geworden. Diverse Schulungen helfen Ihnen, mögliche Defizite zu beseitigen.

Rechtliches und Datenschutz

Ihre Website ist keine rechtsfreie Zone: Alle Besucher müssen nachvollziehen können, wer die Urheberrechte für die Seite innehält. Impressum, Kontaktangaben und ggf. Urheberrecht der Bilder müssen auf Ihrer Homepage exakt angegeben und einfach auffindbar sein. Webdienste wie z.B. e-recht.de bieten hierfür einen Generator zur Erstellung eines rechtlich einwandfreien Impressums an.

Monitoring

Wenn Sie sich die oben genannten Maßnahmen zu Herzen genommen haben, dann sollte ein Anstieg des Traffics zu verzeichnen sein. Überprüfen Sie Ihre Maßnahmen mit Tools wie Google Analytics und den Google Webmaster Tools. Das Monitoring ist jedoch keine einmalige Aktion. Es sollte in vorher definierten Zeiträumen festgelegt werden, wann eine Überprüfung stattfinden soll, um auf Unregelmäßigkeiten reagieren zu können.

Die eigene Website

Verfasst am 30. August 2013

Sie haben den brennenden, innigen Wunsch, eine eigene Homepage im Internet zu erstellen und dauerhaft mit Freude zu pflegen? Dann vergessen Sie all die komplizierten Tools und Programme à la TYPO3, Joomla oder Drupal und schauen Sie sich mal unser Programm Zeta Producer Desktop CMS an!

Damit fabrizieren Sie quasi wie am Fließband technisch und optisch hervorragende Websites und stellen diese in Null-Komma-Nichts online. Selbstverständlich können wir Ihnen die Inhalte nicht vorgeben, diese kommen nach wie vor von Ihnen; das macht ja auch eine gute Website aus: der Content! Wir haben Ihnen jedoch so viel wie möglich an Annehmlichkeiten eingebaut, mit dem Sie einfacher denn je Ihre Inhalte erstellen können. So ist es also stets eine Freude, mit unserer App zu arbeiten, selbst wenn Sie eigentlich grad gar keinen Kopf dafür haben, Ihre Homepage zu aktualisieren.

Die eigene Website

Unser Programm läuft auf allen modernen Windows-Versionen, also Windows 8, Windows 7, Windows Vista und sogar dem schon etwas angegrauten Windows XP. Auch wenn Sie einen Apple Mac mit OS X besitzen, können Sie mithilfe einer Virtualisierungslösung wie Vmware Fusion oder Parallels in den Genuss unserer schnellen, schlanken Anwendung kommen.

Anders als die meisten anderen CMS-Programme benötigen Sie für Zeta Producer keine Installation auf Ihrem Webserver. Deshalb ist es gut geeignet, wenn Sie entweder keine Lust oder Zeit haben (oder schlicht gar nicht wüssten, wie das gehen würde), einen Webserver groß zu konfigurieren. Sie downloaden und installieren vielmehr Zeta Producer wie jedes andere Windows-Programm auf Ihrem PC und legen sofort los. Instant-Satisfaction, sozusagen! Da alle Programmfunktionen sehr logisch und intuitiv aufgebaut sind, können Sie Ihre Website auch mit nur wenig Vorkenntnissen und konzentriert auf die Inhalte (Texte, Bilder, Videos, Downloads, usw.) erstellen.

Also, zögern Sie nicht, sondern fangen Sie jetzt und heute damit an, Ihre eigene, persönliche Internetseite zu erstellen! Downloaden Sie kostenlos, anonym und ohne Registrierung unser tolles CMS! Und Bei Fragen, Wünschen oder Anregungen, freuen wir uns, Sie in unserer großen, kostenlosen Website-Community zu begrüssen.

Fanpage erstellen

Verfasst am 07. Mai 2013

Fanpages oder Fansites, sind Möglichkeiten um Personen aus dem öffentlichen Leben oder Hobbys zu huldigen, auf sie aufmerksam zu machen oder sie einfach zu unterstützen. Solche Seiten beinhalten viele Informationen über das betroffene Thema und bieten Gleichgesinnten die Möglichkeit, zum Beispiel, in Foren Kommentare zu hinterlassen.

Solche Seiten sind weit verbreitet und viele Musikgruppen oder Fußballvereine haben bereits solche Fansites, meistens sind diese nicht offizieller Natur, sondern wurden von Privatpersonen erstellt. Dadurch kann es sein, dass diese Seiten auch inoffizielle Meldung posten bevor diese offiziell bestätigt werden. Gleichermaßen können auch bekannte Personen oder Gruppen ihre eigene offizielle Fansite einrichten, und viele nutzen dies auch um Ihre Fangemeinde zu binden und Ihre persönlichen Ansichten mitzuteilen.

Solche Seiten brauchen ein Programm mit dem es intuitiv und schnell geht Vorhandenes zu bearbeiten und neuen Inhalt unproblematisch hinzuzufügen. Genau das richtige Programm dafür ist der kostenlose Zeta Producer. Es ist kinderleicht zu aller erst eine Fanpage zu erstellen und danach zu verwalten. Das beste ist, der Zeta Producer ist ohne Werbeanzeigen. Die Besucher Ihrer Website können somit ungehindert und ohne lästiges wegklicken von Werbung auf das von Ihnen erschaffene zurückgreifen. Diese kostenlose Version des Zeta Producer ist bereits eine hochwertige Vollversion, mit der sich prinzipiell unbegrenzt viele Websites erstellen lassen. Durch unsere Search Engine Optimization wird Ihre Seite im Netz besser auffindbar. Dies ermöglicht Ihnen an Popularität im World Wide Web zu gewinnen. Sie können sich dann mit anderen Seiten die ebenfalls die gleiche Zielgruppe haben verlinken und so ein ganzes Fan-Netzwerk aufbauen.

Fanpage erstellen

Beim Zeta Producer besteht aber auch die Möglichkeit die kostenlose Version zu erweitern, dies ermöglicht zum Beispiel einen Fanshop einzufügen. Des weiteren kann man durch ein solches Upgrade mehrsprachige Seiten erstellen, dies macht Ihre Seiten auch für ausländische Besucher attraktiv.

Der Zeta Producer steht bereit für Ihre Fansite, Sie können ihn sich jederzeit downloaden und einfach mal selbst ausprobieren wie einfach es geht Websites zu erstellen.

Responsive CMS

Verfasst am 21. Januar 2013

Mit so genanntem „Responsive Webdesign“ sind Websites gemeint, die sich vom Layout (also dem Erscheinungsbild der Website) an das jeweilige Darstellungsmedium anpasst und die Inhalte entsprechend darstellt. Auf deutsch gesagt sieht Ihre Website damit auf einem 28-Zoll-Monitor mit 16:10-Bildschirmformat genau so gut aus wie auf einem Apple iPhone. Erreicht wird dies durch geschickte Kombination von CSS, JavaScript und modernem HTML5.

Zum Erstellen solcher Websites mit responsivem Design bedarf es einiger Erfahrung und Know-How sowie einem nicht zu unterschätzendem Testaufwand. Wenn Sie sich dafür entscheiden, dass Sie so eine Website haben möchten, so sind Sie jedoch keinesfalls dazu verdammt, dass Sie sich auch tatsächlich selbst dieses Wissen aneignen. Vielmehr lohnt es sich, ein cleveres Content Management System (kurz CMS) anzuschauen wie z.B. unser Produkt Zeta Producer Desktop CMS. Mit Zeta Producer erhalten Sie flexible, responsive Websites, die Sie genau so einfach befüllen können wie Sie es von Zeta Producer schon immer gewohnt sind: Sie erstellen Ihre Seiten ganz normal, füllen Inhalte wie Texte und Bilder und klicken auf „Veröffentlichen“.

Responsive Design mit Desktop CMS

Zeta Producer kümmert sich dabei komplett um den Hintergrundprozess der Generierung von Layout-Codes und dem nötigen HTML und CSS. Dabei ist Zeta Producer extrem Zukunftssicher; kommen Änderungen oder Ergänzungen, so wir bei einem Update Ihr gewähltes Layout automatisch mit aktualisiert und Sie kommen jeweils in den Genuss der neuesten Errungenschaften, ganz ohne Ihr Zutun. Die so erstellten Websites sind ideal geeignet, Ihre Inhalte auf einer Vielzahl von Geräten darzustellen, seien es die schicken Handys von Google, z.B. Nexus 4 oder auch verschiedenste Tablets wie iPad, iPad Mini, Google Nexus Tablet oder verschiedene andere SmartPhones wie Windows Phone oder auch das Surface-Tablet von Microsoft. Selbstverständlich sind normale Desktop-Browser auf Windows, Linux oder Apple OS X ebenfalls bestens geeignet, Ihre Inhalte darzustellen.

Kurz: Ihrer Website ist immer optimal präsentiert und bietet so ideale Möglichkeiten, dass Besucher gerne Ihre Seiten besuchen und spannende Inhalte vorfinden. Probieren Sie es noch heute aus und downloaden Sie jetzt direkt und kostenlos Ihre eigene Version.

Suchmaschinenoptimierung Teil 2

Verfasst am 14. September 2012

Verzeichnisebenen

Um Rechenleistung und Kapazitäten einzusparen verzichten manche Suchmaschinen darauf alle Ebenen einer Website zu crawlen. Das bedeutet, dass auch nur ein Teil der Inhalte der Website von Suchmaschinen erkannt und im Index hinterlegt wird. Bei einer Suchmaschine wie Google ist es jedoch so, dass jede Seite indexiert wird. Sollte man jedoch das Ziel haben bei Fireball mit allen Inhalten indexiert zu sein, so sollte man darauf achten, dass die Seite nur eine geringe Anzahl an Ebenen ausweißt. Das hat zudem meist den Vorteil, dass Websites einfacher und übersichtlicher strukturiert sind. Um die eigene Website zu strukturieren ist es hilfreich sich den Aufbau in Form eines Baumes zu verbildlichen.

 

Aktualisierung von Inhalten

Sobald Sie mit dem Gedanken spielen eine eigene Website zu erstellen, sollten Sie auch sofort überlegen, wo und wie Sie Inhalte aktualisieren und neue Inhalte hinzufügen können. Sowohl Suchmaschinen als auch Besucher einer Website sehen neue Inhalte als positiv an und merken dann, dass Websites gepflegt und aus aktuellen Informationen zugegriffen werden kann.

Hinzufügen neuer Inhalte

Sollten Sie die Inhalte Ihrer Website erweitern wollen, so stehen verschiedene Möglichkeiten dies zu realisieren:

Sollten Sie neue Seiten erstellen wollen und andere dafür entfernen,   sollten Sie einige wichtige Faktoren beachten. Denkbar wäre, dass die gelöschte Seite in einem Zusammenhang verlinkt wurden, sodass die verlinkte Seite nicht mehr aufrufbar ist. Es entstehen also tote Links. Seiten, die nicht gefunden werden, werden aus dem Datenbestand gelöscht. Bei einem Relaunch http://de.wikipedia.org/wiki/Relaunch einer Website lassen sich bisherige Strukturen und Unterverzeichnisse nur sehr selten beibehalten. Daher melden viele Webmaster die Website neu bei den Suchmaschinen an. Es ist jedoch nicht sichergestellt, dass die Suchmaschinen innerhalb des ersten Monats besucht. Das führt dann soweit, dass Inhalte von Suchdiensten nicht aufgerufen werden und Besucher eine Fehlerseite angezeigt bekommen. Unter anderem aus diesem Grund ist es hilfreich eine 404-Fehlerseite http://de.wikipedia.org/wiki/Toter_Link  zu gestalten, welche eine kurze Ãœbersicht der Website bietet und der Besucher mit nur einem  Klick die Startseite aufrufen kann.

Daher empfiehlt es sich, dass Inhalte einer Website möglichst nicht gelöscht, sondern umgeschrieben oder aktualisiert werden.

 

Double Content oder Dublicate Content

Suchmaschinen sind so gestrickt, dass Inhalte möglichst nicht doppelt abgelegt werden. Sollten zwei Seiten über den gleichen Inhalt verfügen, so wird lediglich eine Website als Suchergebnis angezeigt. Zusätzlich kann es noch vorkommen, dass der Anbieter der Kopie abgestraft wird. Dublicate Content wird häufiger angeboten als gedacht. Bereits Pressemeldungen oder Artikelbeschreibungen auf Verkaufsplattformen können als kopierter Inhalte angesehen werden. Um festzustellen, ob Formulierungen bereits im Internet vorhanden sind, können Satzausschnitte kopiert und in Anführungszeichen in das Suchfeld der Suchmaschine eingegeben werden.

Achtung: Inhalte von gleichen Descriptions Tags auf der kompletten Website und gleiche Seitentitel auf der Website sind ebenso häufige Quellen von Duplicate Content. Sie bieten eine SSL-Version Ihrer Website an? Genau genommen sind die Inhalte Ihrer Domain dann auch auf zwei Domains auffindbar.

Lösungsmöglichkeiten für Dublicate Content: Sollte man aus irgendwelchen Gründen gezwungen sein, doppelten Content auf der eigenen Website einzubauen, so besteht die Möglichkeit mit einem Canonical-Tag auf die ursprüngliche Website hinzuweisen. Um ein Canonical-Tag einzusetzen müssen Sie im Head-Bereich ein Tag in dieser Form anbringen:

<link rel=“canonical“ href=http://www.zeta-producer.de/shop.html>

Hier wird nun die Suchmaschine darauf hingewiesen, dass die Seite auf der sich der Tag befindet, die Inhalte von der oben genannten Seite erhält. Um komplett auf der sicheren Seite zu sein ist es allerdings besser, wenn Sie Duplicate Content völlig vermeiden.

Davon sind besonders Anbieter von Produkten häufig betroffen, wenn die Produkte jeweils die gleiche Beschreibung auf jeder Seite aufweisen.

 

Suchmaschinenoptimierung einer Website -Teil 1

Verfasst am 04. September 2012

Generell unterscheidet man bei Suchmaschinenoptimierung zwischen zwei Arten:

On-Page Optimierung und Off-Page Optimierung.

Unter On-Page Optimierung versteht man Faktoren, die vom Webdesigner selbst am Quellcode vorgenommen werden können. All diese Optimierungen, die nicht im direkten  Einfluss von dem Website-Betreiber stehen, nennt man Off-Page Optimierung. Dabei geht es hauptsächlich um das Verlinken der eigenen URL auf möglichst vielen fremden Websites, da diese von Google als „Empfehlungen“ wahrgenommen werden.

Besonders bei der Erstellung einer neuen Website oder der Ãœberarbeitung einer Alten, bietet es sich an, dass Websites grundlegend überarbeitet werden. Das bedeutet, dass auch Suchmaschinenoptimierung stattfinden sollte. Diese Punkte sollten bei der Erstellung einer suchmaschinenfreundlichen Website beachtet werden:

1)           Wie die Website programmiert sein sollte: Die meisten Websites bestehen aus HTML-Code. (nähere Informationen zu HTML) Den HTML-Code (beinhaltet die Inhalte der Website) in Kombination mit einer CSS-Datei (enthält alle wichtigen Informationen zum Design der Website) zu verwenden ist bei der Erstellung von barrierefreien Projekten Standard. Die Indexierung von anderen Formaten ist allerdings auch möglich. XML (RSS-Feeds), PDF und Office Dokumente können inzwischen auch sehr gut von Suchmaschinen interpretiert werden. Dennoch sollten Sie besonders wichtige Inhalte grundsätzlich im HTML-Format realisiert werden, da diese noch besser von Suchmaschinen erkannt werden können.

2)           Worauf Sie bei der Programmierung verzichten sollten: Von Flash-Websites sollte abgesehen werden. Zwar sind diese optisch meist sehr schön anzusehen, jedoch können die Crawler die Inhalte der Website oft nicht vollständig erfassen. Ebenso werden Inhalte von  Grafiken von Suchmaschinen nicht erkannt, da die Texterkennung bei Grafiken für Suchmaschinen sehr zeitintensiv wäre. Wichtige Inhalte sollten somit auch nicht einschließlich über Bilder dargestellt werden. Es ist daher wichtig, dass verwendete Bilder eine passende Bilderunterschrift oder Bildtitel haben, so kann die Suchmaschine wenigstens den Inhalt des Bildes zuordnen.

3)           Syntax-Fehler vermeiden oder beheben: Sollten Sie eine Homepage selbst erstellt haben und sicher gehen wollen, dass diese frei von Programmierfehlern ist und eingefügte Links auch funktionieren, so kann dies über den W3C-Validator getestet werden. Dort können sowohl bereits veröffentlichte Websites durch die Eingabe der URL nach Syntax-Fehlern durchsucht als auch noch nicht veröffentlichte Seiten über einen Upload der Dateien auf Fehler im HTML-Code geprüft werden.

 4)           Verwenden von CSS-Dateien: Bei Content-Management-Systemen ist es meist Standard, dass die Cascading Style Sheets als separate Datei das Layout der Seite festlegen. Darin werden Inhalte gespeichert, welche das Layout und das Design der Website betreffen. Änderungen, die das Layout betreffen, können über die CSS-Datei gesteuert werden. Diese werden dann unabhängig vom Inhalt auf der Website dargestellt. Durch die Auslagerung der CSS-Datei wird zudem der Inhalt der HTML-Dateien verringert, wodurch diese Dateien schneller von Suchmaschinen verarbeitet werden.

5)           Verwendung der richtigen Tags: Wichtige Keywords sollten immer in Ãœberschriften untergebracht werden. Suchmaschinen messen Ãœberschriften einen höheren Stellenwert zu als Fließtext. Damit zwischen den verschiedenen Ãœberschriften in Textgröße und Schriftart variiert werden kann, kann zwischen <h1> bis <h6> Tags differenziert werden.

Navigationsstrukturen

Damit der User sich schnell und einfach auf einer Website zurecht findet, muss über eine gut strukturierte Navigation nachgedacht werden. Wenn Sie Ihr Suchverhalten analysieren merken Sie bestimmt, dass nach einer gewissen Suchzeit das Interesse an der Website verloren geht und Sie die Suche zumindest auf der „unstrukturierten“ Website abbrechen. Ebenso spielt für Suchmaschinen die Strukturierung der Inhalte genauso eine Rolle wie für den Menschen auch. Dadurch kann eine Suchmaschine auch erkennen, wie wichtig bestimmte Seiten sind und welche eine eher untergeordnete Rolle spielen. Dabei ist es grundsätzlich wichtig, aus Besuchersicht zu denken.

Bevorzugen sollten Sie eine Homepage mit wenig Ebenen, was auch bedeutet, dass das Verzeichnis der einzelnen Seiten möglichst kurz gewählt ist. Sollte Ihre Website über viele verschiedene Inhalte und auch viele einzelne Seiten verfügen, so ist es durchaus sehr hilfreich, wenn man dem User die Ermittlung der passenden Seite mit einer Suche vereinfacht. Damit der Suchende dann auch weiß wo er sich befindet ist das Anbringen einer Breadcrump-Navigation (s. Bild unten) von Vorteil. Dadurch kann sich der Besucher orientieren, wo er sich befindet und mit nur wenigen Klicks eine oder mehrere Ebenen zurück navigieren. Gut und ausführlich strukturierte Breadcrump-Navigationen sind für Suchmaschinen nützlich, da dann thematisierte Inhalte leichter erkannt werden.

Eine andere Möglichkeit um dem Besucher eine geeignete Ãœbersicht über die Website zu verschaffen ist das Erstellen einer Sitemap. Bei professionellen CMS kann dies mit nur wenigen Klicks realisiert werden.

Hier finden Sie ein Beispiel für eine Sitemap von GEO.de.  Ruft ein Besucher die Seite auf, so kann er sich genau informieren welche Inhalte auf der Seite abgebildet sind. Mit Klick auf die gewünschten Inhalte wird der Besucher dann direkt auf die Seite geleitet.

 Die Startseite

Damit der Nutzer weiß, auf welcher Website er gelandet ist sollten bereits auf der Startseite die wichtigsten Informationen um das Unternehmen dargestellt werden. Intros, welche häufig als Startseite genutzt werden, sind aus SEO-Sicht eher wenig nützlich. Eine bessere Lösung wäre es eventuell, wenn Produkte oder Dienstleistungen grob beschrieben und zusätzlich noch aktuelle Projekte vorgestellt werden. So weiß der Besucher und die Suchmaschine sofort, worum es auf der Website geht und der Besucher bekommt einen Eindruck über die Referenzen des Unternehmens.

Unterseiten und dessen Verzeichnisnamen

Unterseiten für eine Website werden mit bestimmten Schlüsselnamen betitelt. Meist wird die Ãœberschrift der Seite genutzt, um den Titel des Verzeichnisses festzulegen. Wie jeder einzelne Pfad betitelt ist, kann man in der Eingabezeile des Browsers nachlesen.

Auf www.zeta-producer.com ist die Seite auf dem die Besucher die Möglichkeit haben die Software zu kaufen, mit „Shop“ betitelt. So wird zum einen der Begriff „Shop“ durch den Verzeichnisname und zum anderen „Kaufen“ als Wort für die URL auf der Seite verwendet.

Fortsetzung folgt!

Relevanz von Websiten: PR, TrustRank und Click-Popularity

Verfasst am 11. Juli 2012

Wie bereits erwähnt, steigt die Bedeutung von Websites für Suchmaschinen, je nachdem wie viele Seiten darauf verlinken. Sollte eine bedeutende Seite wie Wikipedia oder Welt online auf die eigene Website verlinken, so ist dies von größerer Bedeutung für Google als die Empfehlung von einem Beitrag in einem Blog. Der von den Google-Gründern selbst entwickelte PageRank (PR) soll nicht den Inhalte einer Website bewerten sondern die Beziehung zwischen existierenden Webseiten und deren Qualität. Um herauszufinden, wie hoch der PR einer Website ist, gibt es verschiedene Möglichkeiten. Zum einen gibt es zahlreiche Add-Ons für Browser, die den PR der Homepage anzeigen, zu anderen kann der PR aber auch über das Tool von SEO-Ranking-Tools.de ermittelt werden. Nach der Eingabe der URL und des Sicherheitscodes wird der PR der gewünschten Website ermittelt. Der PR ist eine Zahl zwischen 0 und 10.

Der PageRank-Algorithmus wurde von Lawrence Page und Sergei Brin entwickelt und zum Patent angemeldet. Der Name PageRank kommt daher von seinem Erfinder Lawrence Page. Dabei gilt es jedoch zu beachten, dass auch Websites mit dem PR 0 auf der TOP 3 bei einer Google Suchanfrage angezeigt werden können. Die Anzahl ausgehender Links einer Seite fließen in die Berechnung des PR mit ein.

Nach Page und Brin drückt der PR die Wahrscheinlichkeit aus, mit der ein Surfer eine Website besucht. Ausgegangen wird von einem „Random Surfer“, welcher beliebige Links nutzt, ohne dabei gezielt auf den Inhalt zu achten. Wer nachvollziehen will, wie der PageRank berechnet wird, kann dies hier versuchen.

Zu Bedenken dabei gilt, dass der angezeigte PR in der Toolbar oft nicht der aktuelle PR ist, mit dem Google rechnet. Es kann durchaus vorkommen, dass der Wert mit dem Google rechnet ein anderer, aktuellerer Wert ist.

Es lässt sich nicht verallgemeinern, dass nur Websites mit hohem PR ganz oben in der Suchergebnisliste angezeigt werden. Um eine gute Platzierung bei Google zu erreichen wirken zahlreiche Faktioren zusammen, welche genau das sind und wie die Gewichtung derer ist, weiß momentan keiner so genau – außer Google selbst.  

TrustRank

Ein Faktor, der ebenfalls über die Relevanz der Homepage informiert, ist der TrustRank (Trust=Vertrauen). Die Technologie hat sich Google im Jahr 2005 ebenfalls patentieren lassen. Um den TrustRank zu bestimmen, erhalten ausgewählte Websites eine Art Zertifikat. Dies bedeutet, dass sie als vertrauenswürdige Seite ausgezeichnet sind. Nimmt man an, dass vertrauenswürdige Seiten nicht auf Spam-Seiten verweisen, so lässt sich dadurch die Qualität der verlinkten Websites ableiten. Bekommt eine Homepage von einer von Google ausgewählten Website einen Link, so wird die Qualität der Homepage als  hochwertig eingestuft. Sollte diese Seite wiederum auf andere verlinken, so wird davon ausgegangen, dass der TrustRank zwar noch hoch ist, aber nicht so hoch wie eine von Google ausgewählte Homepage. Die Verteilung des TrustRanks kann man sich so vorstellen, dass die von Google ausgewählten Seiten ganz oben stehen und jeder weiterführende Links von Websites hat einen geringen TrustRank inne. Eine Homepage, die an der untersten Position der Pyramide ist, hat sozusagen einen sehr niedrigen TrustRank und  für  Websites ist es daher nicht nur von hoher Bedeutung, dass sie Links von Seiten mit hohem PR sondern auch zusätzlich einen hohen TrustRank besitzen.

Der Unterschied zum Page Rank besteht darin, dass der Trust Rank nicht abgerufen werden kann. Die Wahrscheinlichkeit, dass er Auswirkungen auf das Ranking hat, ist jedoch sehr hoch.

Click-Popularity

Durch die Click-Popularity wird dem Benutzer ermöglicht eine Art Bewertung für Internetauftritte zu geben. Das läuft so ab, dass der Suchmaschinen-Nutzer eine normale Suchanfrage startet und daraufhin eine übliche Ergebnisliste angezeigt bekommt. Wenn der Nutzer sich für ein Ergebnis entschieden hat und darauf klickt, aktiviert er einen Zähler und wird anschließend an die Zielseite weitergeleitet. Der Zähler speichert die Auswahl des bestimmten Eintrags in einer Datenbank ab. Der Suchmaschinen-Nutzer selbst bekommt damit recht wenig mit, denn das geschieht alles innerhalb weniger Sekunden. Da dieser Methode zufolge jeder Webseitenbesitzer die Click-Popularity beeinflussen kann, haben sich die Suchmaschinenbetreiber überlegt, wie sie das verhindern können:

Speicherung der IP-Adressen: Die IP-Adresse des Suchmaschinen-Nutzers wird mit dem Klick auf das Suchergebnis in der Datenbank gespeichert. Sollte innerhalb eines festgelegten Zeitraumes erneut Klicks von derselben IP-Adresse auf den gleichen Eintrag in der Datenbank gespeichert werden, wird der Zähler nicht erhöht. Diese Art die Manipulation von Websitenbetreiber einzuschränken hat jedoch eine gewisse Grenze. Internetuser, die bei jedem Einwahlverfahren eine neue IP-Adresse erhalten, können auch jederzeit die Seite erneut über die Suchmaschine aufrufen, ohne dass das Erhöhen des Zählers verhindert wird.

Verwendung von Cookies: Bei der Speicherung von Cookies handelt es sich um die Speicherung von Textdateien mit diversen Informationen, die auf der Festplatte des Nutzers abgelegt werden. Diese ermöglichen eine erneute Identifizierung des Nutzer, sobald er den gleichen Eintrag in der Google Ergebnisliste aufruft. Das Setzen von Cookies ist allerdings sehr fragwürdig und kann von Browsern prinzipiell verhindert werden.

Ein weiterer Faktor der Click-Popularity ist die Verweildauer des Besuchers. Eine durchschnittliche Verweildauer der Besucher kann mit Hilfe von Google Analytics ermittelt werden. Im Bezug auf die Click-Popularity wird jedoch ermittelt, wie lange der Suchmaschinen-Nutzer auf der ausgewählten Seite bleibt bis er wieder zurück zur Suchergebnisliste wechselt. So wird also vom Nutzer selbst ausgewertet, wie informativ die Seite für den Suchenden selbst ist. Dabei muss allerdings vorausgesetzt werden, dass der Nutzer überhaupt wieder auf die Ergebnisliste der Suchmaschine zurückgreift. Es ist durchaus möglich, dass der Suchende die Recherche nach einem aufgerufenen Ergebnis abricht. Die nächste Schwierigkeit ist, dass derjenige, der erneut auf das Ergebnis der Suchmaschine zugreift, auch wieder als der User identifiziert werden muss. Dies geschieht ebenfalls über die IP-Adresse oder über ein gesetztes Cookie. Diese Methoden, sind jedoch sowohl was die Berechnung der Verweildauer als auch die Berechnung der Klick-Häufigkeit angeht, nicht zu 100% eindeutig.

SEO, SEM, CRO, SMO und Co.

Verfasst am 30. Mai 2012

Rund um das Thema Suchmaschinenoptimierung (SEO=Search Engine Optimization) gibt es eine Menge an verschiedener Abkürzungen. Hier werden einige davon genauer definiert:

Search Engine Marketing (SEM):

Setzt sich aus Search Engine Advertisting (SEA) und Search Engine Optimization (SEO) zusammen und ist Teil des Online-Marketings. Darunter werden alle Maßnahmen verstanden, die durchgeführt werden um die Besucherzahl der Website über Suchmaschinen zu erhöhen. Das Ziel dabei ist es, die Sichtbarkeit der Websiten bei den Ergebnislisten zu erhöhen. Dabei wird dann zwischen den organischen Suchergebnissen und den bezahlten Anzeigen unterschieden.

Search Engine Advertising (SEA):

Darunter wird die Platzierung von Werbung verstanden. Dabei kann zwischen Werbung direkt auf Seiten der Suchmaschinen (beispielsweise Google AdWords), Werbetexte und Werbebanner auf themenspezifischen, fremden Seiten verstanden werden. Diese Maßnahmen werden häufig auch Keyword-Advertising bezeichnet.

Search Engine Optimization (SEO):

Unter Suchmaschinenoptimierung versteht man die Möglichkeiten, die ergriffen werden, damit eine Homepage bei den Suchrankings auf höheren Plätzen angezeigt wird. Gemeint ist damit eine Auflistung bei der organischen Suche. Suchmaschinenoptimierung ist ein Teilgebiet des Suchmaschinenmarketings.

Conversationsrate-Optimierung (CRO):

Unter Conversionsrate versteht man das Verhältnis von reinen Besuchern und wirklich handelnden Besuchern (beispielsweise Käufern). So kann man die Conversationsrate berechnen:

Ursachen für eine geringe Conversationsrate kann zum Beispiel die Benutzerfreundlichkeit der Seite sein, sodass Besucher nicht wissen, wo sie den Newsletter abonnieren oder Bestellungen absenden können. Vorsicht: Falls Sie das Ziel verfolgen, eine möglichst hohe Conversationsrate zu haben, sollten Sie bedenken, dass auch durch SEO auch mehr Besucher auf Ihre Seite kommen werden, die sich lediglich nur umschauen oder informieren wollen.

Social Media Optimization (SMO):

SMO wird zusätzlich genutzt, um die Sichtbarkeit des Unternehmens oder der Website im Internet zu erhöhen. Durch soziale Netzwerke wie Facebook, Twitter und Google + können Webmaster Interessenten mit aktuellen Informationen auf dem Laufenden halten und ihre Reichweite erhöhen.

Wie man auf die eigene Website aufmerksam machen kann

Verfasst am 18. Mai 2012

Im Internet gibt es eine Vielzahl von Möglichkeiten, wie man die eigene Homepage bewerben kann. Wie bereits in einem anderem Artikel geschrieben bewertet Google die Wichtigkeit von Seiten an der Anzahl der Backlinks, die im Internet auf eine Seite verlinken. Je mehr qualitativ hochwertige Links, desto wichtiger wird die Homepage von Google beurteilt und desto höher ist die Wahrscheinlichkeit, dass die Seite möglichst weit oben bei den Suchergebnissen gelistet wird.

Sollte man es allerdings mit dem Verlinken einer Website übertreiben oder immer die gleichen Inhalte veröffentlichen, so besteht eine hohe Gefahr, dass Google reagiert und diese Seite abstraft.

Die Möglichkeit auf Social-Bookmarking-Dienste zurückzugreifen wird häufig genutzt, um die eigene Website mit Backlinks zu versorgen. Mit Social-Bookmarking-Diensten hat man die Möglichkeit Webadressen als Lesezeichen abzuspeichern. Alle gängigen Internetbrowser wie Google Chrome und Mozilla Firefox bieten ebenfalls eine derartige Lösung an, jedoch ist man dann an den eigenen Rechner gebunden.

Nutzt man einen Online-Bookmark-Dienst, so kann man von jedem Ort auf die gesetzten Lesezeichen zugreifen. Bei vielen solchen Diensten kann man seine Bookmarks mit anderen Nutzern der Plattform teilen. Neben dem Speichern der URL kann man dem Lesezeichen meistens noch  verschiedene Tags zuordnen (geeignete Tags wären beispielsweise Keywords für Ihre Website). Bei Social Bookmark-Dienst delicious.com (siehe Bild) ist es möglich, dass ein Bild und eine kurze Beschreibung des Links hinzugefügt wird.

Quelle: www.delicious.com

Eine Alternative zu Social-Bookmarks sind Webkataloge oder Webverzeichnisse. Diese sind meist in verschieden Kategorien unterteilt und vergleichbar mit einem Online-Branchenbuch. Jeder – vom Verein bis zur Einzelperson – kann die Gelegenheit nutzen und sich in ein Webkatalog eintragen.
Meist werden dort vorgenommen Einträge vor dem Freischalten von Redakteuren der Plattform geprüft. Dabei werden dann lediglich stimmige Einträge online gestellt und Duplikate oder unvollständig eingesendete Beiträge gelöscht.

Quelle:www.webverzeichnis-webkatalog.de/

Die Geschäftsmodelle der Webverzeichnisse sind verschieden – nicht alle Einträge sind kostenfrei. Der Eintrag von Name und Adresse ist meist gratis, wohingegen teilweise für die Angabe der URL oder genauere Beschreibungstexte ein monat- oder jährlicher Betrag abgerechnet wird.
Viele der Webkataloge bestehen auf einen Backlink, um in das Verzeichnis aufgenommen zu werden. Das bedeutet, dass man lediglich verlinkt wird, wenn man auch einen Link zum entsprechenden Portal setzt. Dadurch wird zwar die Bedeutung des Verzeichnisses selbst erhöht, weil sich nicht jeder in das Verzeichnis eintragen wird, für Suchmaschinen ist es jedoch einfacher ein Webverzeichnis als solches zu identifizieren.

Verlinkt ein Webverzeichnis mehrfach zu einer Homepage, die dann wiederum zurück verlinkt, so kann es sein, dass die Suchmaschine bereits auf diese Art von künstlicher Verlinkung aufmerksam wird. Webverzeichnisse sind eine beliebte Quelle um Backlinks für eine Website zu erhalten. Die Idee von SEO-Dienstleistern war es, mit selbst erstellten Webverzeichnissen schnell und einfach Links für Kunden im Internet zu platzieren. Da andere SEO-Optimierer ebenfalls jede Gelegenheit nutzen, um einen Link von einer anderen Plattform zu bekommen, vergrößern sich solche Plattformen quasi von selbst. Google und andere Suchmaschinen reagieren natürlich auf die künstlich erstellten Links in Web und gewichten Links von solchen Plattformen meist nicht so stark wie Backlinks von Blogs oder Videoplattformen.

Gästebücher, Blogs und Foren

Eine weitere Möglichkeit um auf die eigene Website aufmerksam zu machen, ist die Registrierung in themenspezifischen Blogs, Gästebüchern oder Foren. Diese lassen sich am leichtesten über Google ausfindig machen. Einfach das gewünschte Keyword wie zum Beispiel CMS und ein gewünschtes Portal (Gästebuch, Blog oder Forum) anhängen. Bei diesen Plattformen reicht es jedoch nicht aus einfach einen simplen Link auf die Seite zu posten, da die Seitenbetreiber solche Kommentare löschen oder Profile von registrierten Usern komplett sperren. Um diesem Risiko zu entgehen, sollten dort lediglich Inhalte mit hoher Qualität und Mehrwert für den User eingestellt werden, das können zum Beispiel Tipps, Erfahrungen oder interessante Informationen aus Fachzeitschriften sein. Sollten die eingestellten Informationen wirklich über ausreichend Mehrwert verfügen, so haben Sie gute Chancen, dass Ihr Kommentar, Beitrag oder Ihr Profil bestehen bleibt. Sollte ein Nutzerkonto aufgrund eines SPAM- Beitrags gelöscht werden, so werden Sie sich nicht nochmal mit Ihrer Mail-Adresse registrieren können. Sollte man auf einen Blog einen Kommentar mit Mehrwert setzen wollen, so können diese Tipps hilfreich sein, damit der Kommentar nicht als Spam-Kommentar eingeordnet wird:

  • Sollte der Kommentar speziell an jemand gerichtet sein, so ist es hilfreich den Kommentar mit dem jeweiligen Benutzername zu beginnen.
  • Bevorzugt werden hier überwiegend längere Kommentare. Kurze Kommentare mit Links gelten häufig als Kommentarspam und werden sofort entfernt.
  • Es wird eher davon abgeraten Unterseiten einer Website zu verlinken.
  • Bieten Sie Mehrwert mit Ihrem Kommentar und helfen Sie mit Tipps oder Tricks anderen Besuchern weiter.

Warum Suchmaschinenoptimierung (SEO)?

Verfasst am 11. Mai 2012

Vor wenigen Jahren war Suchmaschinenoptimierung noch eine teilweise technisch komplizierte Veränderung, die auf Websites vorgenommen wurde, damit eine Homepage besser gefunden werden konnte. Heute wird häufig eine Agentur für Suchmaschinenoptimierung beauftragt. An der Absicht der Suchmaschinenoptimierer hat sich allerdings nichts geändert: Das Ziel ist es, bei den Suchergebnissen der Suchmaschinen die eigene Homepage ganz oben angezeigt zu bekommen und folglich damit möglichst viele Besucher für die eigene Seite zu gewinnen.

Das enorme Potential, dass im Internet steckt, bestätigt sich durch folgende Zahlen:
94% der Internet-User nutzen das Internet für den Kaufentscheidungsprozess
71% der User sehen Suchmaschinen als wichtigsten Anlaufpunkt für die Suche nach Produkten und Dienstleistungen im Internet
50% aller Suchanfragen haben einen kommerziellen Hintergrund
42% aller Online-Käufe beginnen mit einer Suchanfrage

Um Traffic von den gestellten Suchanfragen abzubekommen sollte Ihre Homepage so optimiert sein, dass Sie auf Seite Eins der Ergebnisse angezeigt wird, denn durchschnittlich 16% der User betrachten nur die ersten Ergebnisse der Suchergebnisseiten.
SEO ist heute jedoch deutlich komplexer als vor ein paar Jahren. Die Anzahl existierender Suchmaschinen-Tools, suchmaschinenfreundlicher Software und SEO-Agenturen hat sich innerhalb der letzten Jahre vervielfacht. Mit neuen Bewertungskriterien für Websites halten die Suchmaschinen alle SEO ´s auf Trab. Zuletzt sorgte das Pinguin- Update Ende April in der SEO-Szene für Aufregung. Das Ziel von Google dabei war es überoptimierte Seiten abzustrafen. Dieser von Google entwickelte Algorithmus sollte alle Websiten abwerten, welche entgegen der Google Richtlinien optimiert wurden. Das geschieht häufig durch Webspam. Mit der Anwendung solcher Techniken gelingt es oft mit geringem Zeitaufwand auf die oberen Plätze bei Suchanfragen zu gelangen. Durch Änderungen am Algorithmus ist dieser Erfolg jedoch meist sehr kurzweilig, da Google diese Websiten durch Änderungen am Algorithmus stark abstraft und nach dem Einspielen des Algorithmus schlecht platziert werden.
Mit solchen Maßnahmen will Google dafür sorgen, dass die Suchmaschine weiterhin zum schnellen und effektiven Auffinden von Informationen genutzt wird und auch die dafür passenden und relevanten Ergebnisse anzeigt.

Was hinter einer Suchanfrage steckt

Gibt man im Suchfeld eine Suchanfrage (Query) ein, welche häufig aus einem oder mehreren Keywords besteht, so wird ein Index nach den eingegebenen Begriffen durchsucht. Unter einem Index kann man in diesem Fall eine Art Inhaltsverzeichnis mit zahlreichen Dokumenten und Websiten zum eingegebenen Keyword verstehen. Google berechnet auf der Grundlage des streng geheimen Algorithmus ein Ranking und zeigt eine dem entsprechende Ergebnislisten an. Diese wird häufig als Search Engine Result Page (SERP) bezeichnet.

Das Erfassen und Analysieren der Inhalte geschieht im Hintergrund. Robots oder Crawler speichern die Informationen der gefundenen Inhalte als Kopie ab. Der Parser bzw. Indexer speichert die analysierten Inhalte dann im Index.

Welche Faktoren das Ranking bei einer Anfrage beeinflussen

Wie genau einzelne Faktoren genau gewichtet werden, ist und wird wohl immer das Geheimnis von Google bleiben. Generell lässt sich jedoch sagen, dass sich die bewerteten Faktoren in zwei Bereiche einteilen lassen: On- und Off-page Optimierung.
Faktoren, die die On-page Optimierung betreffen sind selbst beeinflussbar. Wie zum Beispiel folgende:

  • Benennung der einzelnen Seiten und Ãœberschriften der Homepage selbst
  • Keyword-Platzierung auf der Website
  • Ladegeschwindigkeit der erstellten Homepage
  • Betitelung der einzelnen Unterseiten

Die Off-page Optimierung betrifft Faktoren, die nicht im direkten Einfluss des Webdesigners liegen. Das können eigehende Links von anderen Websiten (Backlinks) sein. Die meisten Suchmaschinen sehen eingehende Links als Empfehlungen an. Gehen also sehr viele Links von verschiedenen Websites zu einer Bestimmten, so geht Google davon aus, dass diese Seite über interessanten Inhalt verfügt.

Weitere Informationen zum Thema Suchmaschinenoptimierung folgen im Laufe der nächsten Woche.