maettig.com

Thiemos Archiv

Ich habe seit längerer Zeit mal wieder in einigen Blogs und Vorträgen von Google-Mitarbeitern gestöbert. Sehr vieles ist immer gleich und Google wird auch nicht müde, es zu wiederholen. Zu Recht. Google hat keine Sorgen mit Webmastern, die lernen und verstehen möchten, sondern mit denen, denen es egal ist. Dementsprechend richtet sich vieles an Anfänger und Fehlgeleitete, die meinen, bei Google gut platziert zu sein wäre ein Geschäftsmodell. Dabei sollte das meiste aus Sicht eines normal denkenden Menschen selbstverständlich sein, läuft es doch so gut wie immer auf den Satz hinaus, mit dem Googles Richtlinien beginnen: Erstellen Sie Seiten in erster Linie für Nutzer, nicht für Suchmaschinen. Damit ist fast alles gesagt. Ein paar neue Dinge habe ich dennoch gelernt:
  • Die Google-Leute verwenden tatsächlich das Wort Love. Wenn die Besucher deine Seite lieben, wird sie auch von Google geliebt.
  • Google empfiehlt als ersten Schritt immer, die eigene Seite bei den Webmaster-Tools anzumelden. Nicht, dass das irgend etwas an der Auffindbarkeit oder Platzierung der Seite ändern würde. Mit den Tools hat der Webmaster lediglich ein Bündel an Werkzeugen und vor allem Informationen in der Hand, mit denen er weiter arbeiten, Mängel aufdecken und Optimierungspotential nutzen kann. Das spart Google Support-Anfragen und damit Geld.
  • Das Problem der PageRank Dilution durch Duplicate Content, das heißt PageRank-Streuung durch doppelte Seiten, wird immer wieder sehr stark betont. Man soll sich z.B. unbedingt für eine Schreibweise mit oder ohne www entscheiden und die jeweils andere mit einem 301-Status-Code dort hin weiter leiten. (Das „double-u double-u double-u or non-double-u double-u double-u version“ klingt im Englischen übrigens ziemlich lustig.) Lassen sich Doppelungen nicht vermeiden, soll mit rel="canonical" auf die Basisversion verwiesen werden.
  • Ebenfalls unermüdlich betont wird die Wichtigkeit einer guten Meta-Description. Mir kommt das allerdings immer ein wenig praxisfern vor. Ich soll tatsächlich jeder einzelnen Seite eine eigene Kurzbeschreibung mitgeben, die außer in Google nirgends zu sehen ist? Was für ein Aufwand.
  • Mit den Meta-Keywords macht Google gar nichts, bietet sie aber als Datenquelle in den APIs mit an.
  • Frames werden im Zusammenhang erfasst, IFrames gelten immer als eigene Seiten.
  • Seit Google in den Suchergebnisseiten Breadcrumbs (Brotkrümelnavigationen) anzeigt, ist diese Navigationsart auch wieder in den Fokus der Webentwickler gerückt. Eine durchdachte und konsistente Breadcrumb-Navigation lohnt sich, weil Google sie nun erkennen und nutzen kann.
  • Es gibt einen HTTP-Status-Code 503, den man setzen sollte, wenn man an einem Server arbeitet. Wenn man sich nicht darum kümmert, erhält der Googlebot schlimmstenfalls den Code 404 und denkt dann, der Server wäre aufgegeben worden.
  • Man soll schon besuchten Links eine andere Farbe geben. Es ist leider üblich geworden, zugunsten des Designs auf diese uralte Möglichkeit zu verzichten, aber man verliert damit eine gute Navigationshilfe.
  • Die CSS-Angabe text-indent: -999em wird als mögliches Anzeichen für Spam gewertet und sollte daher vermieden werden. Statt dessen soll man lieber normale Bilder mit alt-Texten verwenden. Natürlich wird man nicht sofort bestraft, nur weil man ein Phark-Image-Replacement verwendet. Es ist nur ein Indiz. Man wird sogar in den Webmaster-Tools informiert, wenn Google den versteckten Text für verdächtig hält (Quelle).
  • Google wird immer stärker JavaScript auswerten können. Die Bots können schon vielen einfach gestrickten JavaScript-Links folgen und auch einfache Skripte zur E-Mail-Verschlüsselung werden schon dekodiert. Um das auch in Zukunft zuverlässig zu verhindern, kann man Skripte in eigene Dateien auslagern und diese per robots.txt blockieren. Daran hält sich natürlich nur Google und nicht die Spam-Bots.
  • Die Idee einer messbaren Suchwortdichte (Keyword density) ist Schwachsinn. Ein SEO-Mythos. Vereinfacht ausgedrückt wird eine Seite nicht relevanter, nur weil das Suchwort zweimal, zehnmal oder gar 50 mal darauf vorkommt (Quelle). Die Häufigkeit spielt bei der Bewertung keine Rolle oder wenn überhaupt, dann eine so geringe, dass es sinnlos ist, sich überhaupt Gedanken darüber zu machen. Es gibt unzählige andere Faktoren, die wesentlich bedeutsamer sind. Wichtig ist z.B., dass das Suchwort überhaupt vorkommt. Klingt blöd, ist aber erschreckend oft tatsächlich ein Problem. Wer z.B. Sportschuhe verkaufen will, sollte sie nicht Footwear nennen und sich dann wundern, dass er bei der Suche nach „Sportschuhe“ nicht gefunden wird. Wenn es ein wichtiges Suchwort ist, sollte es in einer Überschrift, im Titel und in der URL auftauchen. Ob es im Domainnamen steht, ist dagegen wieder so ziemlich egal. Andere Faktoren wie z.B. kurze und gut lesbare URLs spielen eine wesentlich größere Rolle.

Kommentare zu diesem Beitrag können per E-Mail an den Autor gesandt werden.

[ ← Zurück zur Übersicht ]

Impressum & Datenschutz