SEO Einführung: Unseriöse Tricks Ranking-Positionen zu fälschen

SEOWer sich mit Suchmaschinenoptimierung (SEO) beschäftigen will, hat gerade als Anfänger das Problem, nur schwer an brauchbare Informationen zu kommen. Entweder wird bereits ein umfassendes Vorwissen vorausgesetzt oder man bekommt nur kleine – und meist unzusammenhängende – Wissenshäppchen vorgesetzt, die einzelnen Steinchen eines Mosaiks gleichen. In mühevoller Kleinarbeit hat man sie selbst zusammenzusetzen. In diesem Artikel will ich einige grundlegende Begriffe von „Betrugsmethoden“ für Anfänger erläutern, um ein Verständnis dieser Themen zu erleichtern.

Solche Betrugsmethoden werden meist von kurzsichtigen SEOs angewandt, um das Ranking von Webseiten künstlich zu verbessern. Da es hier in allen Fällen darum geht, bestimmte Suchmaschinen auszutricksen, um eine bessere Position auf Suchergebnisseiten zu erzielen, können diese Verfahren mit Recht als „Spam“ bezeichnet werden. Wenn Sie in SEO-Foren unterwegs sind – oder Literatur zu diesem Thema lesen – werden Ihnen diese Begriffe immer wieder begegnen. Da ich selbst ein Gegner dieser Methoden bin, werde ich mich darauf beschränken die Begriffe zu erklären und auf deren Bedeutung und mögliche Konsequenzen zu verweisen.

Als kurzen Überblick gebe ich hier eine kurze Liste an, die ich im Folgenden näher erläutern werde:

  • Doorway-Pages
  • Cloaking
  • Versteckte Links (hidden links)
  • Domain-Dubletten
  • Unsichtbarer Keywordspam (hidden text)
  • Page-Jacking
  • Bait-And-Switch
  • Meta-Spam (oder Meta-Tag-Spam)
  • Keyword-Stuffing

1. Ranking-Betrug mit Doorway-Pages

Sogenannte Doorway-Pages sind superoptimierte, einzelne Webseiten, die per Hyperlink oder einer automatischen Weiterleitung mit der eigentlichen Webseite des Betreibers verbunden sind. Sie erfüllen nur den Zweck, ein möglichst hohes Ranking auf Suchergebnisseiten zu erzielen und so möglichst viele Besucher auf eine andere Webpräsenz weiterzuleiten – daher der Name Door (für engl. Tür) und Way (engl. Weg). Man findet diese Betrugstechnik im Internet auch unter Namen: Gateway, Ghost-, Entry-, Jump-, Pointer oder Informations-Pages.

doorway-pagesDie Doorway-Page soll der Suchmaschine vorgaukeln, daß sehr hochwertige Informationen zu einem bestimmten Keyword oder Suchphrase vorhanden sind. Dabei versucht der „SEO“ – meist unter Berücksichtigung aller manipulierbaren Merkmale – die Seite auf den ersten Suchergebnisseiten zu plazieren. Oft werden Doorway-Pages als „Willkommens-Seite“ getarnt, d.h. der Besucher muß weiterklicken, um auf die eigentliche Webseite zu gelangen. Solche Seiten haben inhaltlich keinerlei Wert für einen Besucher, was ihren Spam-Charakter verdeutlicht.

Doorway-Pages haben sich im Laufe der Zeit stark verändert. Fand man früher noch Seiten, die lediglich eine endlose Ansammlung von Keywords enthielten, so werden heute „Informations-Pages“ angeboten, die mit Überschriften, Absätzen und Hervorhebungen formatiert sind, d.h. sie sind dem Aussehen und der Struktur nach an brauchbare Webseiten angepasst.

Es gibt auch heute noch verschiedene SEO-Agenturen, die derartige Optimierungen teuer verkaufen, d.h. nach bestimmten Keywordvorgaben automatisch generierte Doorway-Pages erstellen. Nicht selten arbeiten diese Agenturen mit völlig veralteten Techniken, die es Such-Robots leicht machen, die Doorway-Page als Spam zu identifizieren.

Also Vorsicht! Diese Technik ist Suchmaschinen seit langem bekannt. Wird eine Seite als „Doorway-Page“ von einer Suchmaschine identifiziert, so ist zu erwarten, daß die darauf verlinkten Seiten aus dem Index entfernt werden.

2. Ranking Betrug: Cloaking

Die Idee des Cloakings (Verhüllen) ist der von Doorway-Pages sehr ähnlich, obwohl eine völlig andere Technik zur Täuschung der Suchmaschine verwendet wird. Beim Cloaking wird der Server so programmiert, daß er zwischen „menschlichen Besuchern“ und „Robots“ unterscheiden kann, wobei er beiden unter der gleichen URL völlig unterschiedliche Seiten ausliefert. Wird ein HTTP-Request von einem Robot erkannt, so wird eine superoptimierte Seite ausgegeben, die das Ranking künstlich verbessern soll. Menschliche Besucher hingegen bekommen die „Normalansicht“ der URL zu sehen, die sich natürlich grundlegend von der optimierten Version unterscheidet.

Die optimierte Seite für Robots wird – ähnlich wie bei einer Doorway-Page – künstlich mit Suchbegriffen zugepflastert. Damit ist der Tatbestand des Betrugs erfüllt, da Mensch und Maschine völlig unterschiedliche Informationen bekommen. So besteht auch die Möglichkeit den Suchmaschinen-Robots „falsche Suchbegriffe“ zu geben. Der Besucher mag sich dann später wundern, warum die Suchmaschine ihm zu seinen Suchbegriffen „schlechte Seiten“ ausliefert.

Eine Methode dem Cloaking auf die Spur zu kommen, ist die „Cache-Version“ der Seite und die tatsächlich ausgelieferte Seite zu vergleichen. Hier kann man im Falle des Cloakings meist schon deutliche Unterschiede bemerken. Suchmaschinen-Betreiber haben sich mittlerweile auf dieses Betrugsverfahren eingestellt und gaukeln nun ihrerseits dem Server des Betrügers vor, daß der Robot ein „menschlicher Besucher“ ist. Damit können sie leicht die Auslieferung von verschiedenen Versionen einer URL erkennen. Selbstredend wird auch das Cloaking meist mit einem Ausschluß aus dem Index bestraft.

3. Betrugsversuche mit versteckten – hidden – Links

Versteckte Links werden oft dazu verwendet, um die eigene Linkpopularity zu erhöhen oder um die Indizierbarkeit von Java- und Flashnavigationen zu verbessern. Wie der Name schon sagt, sind diese Links für Besucher unsichtbar und dienen nur einer manipulierbaren Weiterleitung von Suchmaschinen-Robots. Ein Trick ist beispielsweise einen Punkt am Satzende als Link zu setzen, der mit einer entsprechenden Manipulation der CSS-Datei für Besucher unsichtbar bleibt.

Von manchen SEOs wird die Anwendung dieser Technik damit begründet, daß die Verweildauer von Besuchern erhöht werden soll, d.h. es wird befürchtet, daß offensichtliche Platzierung von „Fremdlinks“ zu einer schnelleren Abwanderung von Besuchern führen. Persönlich halte ich diese Begründung für Unsinn. Wer seine Besucher nicht von der Qualität des eigenen Angebots überzeugen kann, wird mit solchen Techniken langfristig ebenso keinen Erfolg haben. Schlechte Seiten bleiben schlechte Seiten, auch wenn man durch diese Methode vielleicht noch einen Pageklick mehr aus einem Besucher herausholen kann. Der Vollständigkeit halber sei erwähnt, daß geschicktere SEOs die Hidden-Link-Methode mit Layern oder CSS manipulieren. Ob diese Methode zu einem Ausschluß aus dem Index führen kann, ist nicht zweifelsfrei geklärt.

4. Erstellen von Domain-Dubletten

Darunter versteht man die Praxis von Webmastern, gleiche – oder sehr ähnliche Contentseiten – unter verschiedenen URLs (oder Domainnamen) mehrfach im Internet zu publizieren. Solche Seiten werden auch als Spiegelseiten, Mirror-Pages, Mirror-Sites oder Double-Content bezeichnet. Der Hintergrund dieser Maßnahme ist, daß Suchmaschinen häufig nicht alle relevanten Treffer bei einem Keyword von einer Domain anzeigen, sondern nur zwei Ergebnisse (Google) listen. Dies geschieht, um dem Sucher eine möglichst große Bandbreite an Suchergebnissen liefern zu können. So wird verhindert, daß eine einzelne Domain bei bestimmten Suchphrasen, Suchergebnisseiten mit unzähligen Treffern dominieren können.

Durch das mehrfache Publizieren der gleichen Inhalte wird versucht, dem Sucher ein möglichst großes Spektrum des eigenen Contents anzubieten. Ein anderes Verfahren optimiert einen Inhalt auf mehrere Suchbegriffe, so daß der Sucher fast identische Seiten zu verschiedenen Suchphrasen angeboten bekommt. Da Suchmaschinen bestrebt sind den Datenbestand möglichst gering zu halten, sind ihnen Domain-Doubletten natürlich ein Dorn im Auge, da diese das Angebot an Wissen faktisch nicht erweitern.

Werden Doubletten entdeckt – was über verschiedene Verfahren wie Checksummenbildung, IP-Vergleich der Domains etc. relativ einfach machbar ist – werden diese aus dem Index entfernt. Von einem kompletten Ausschluß aus dem Index sehen die Suchmaschinen-Betreiber jedoch ab, da Doubletten auch von „Content-Klauern“ erzeugt werden können, d.h. von Menschen die wissentlich oder unwissentlich die Urheberrechte mißachten und den Content von anderen einfach „klauen“. Letzteres ist strafbar und kann mit einer saftigen Abmahnung geahndet werden.

5. Unsichtbarer Keyword-Spam (hidden text)

keywordsUnter Keyword-Spam mit „hidden text“ versteht man die Methode ein HTML-Dokument mit Keywords anzureichern, in dem man Text- und Hintergrundfarbe identisch setzt bzw. mit so geringen Kontrasten versieht, daß ein menschlicher Besucher sie nicht lesen kann. Da Robots reinen Code lesen, sind solche versteckten Texte für sie natürlich ganz normal zu erkennen. Diese Methode ist uralt und wird oft als das Paradebeispiel für Suchmaschinen-Spam angeführt. In den Anfängen hatte man noch Font-Tags benutzt, um Texte zu verstecken. Später kamen auch Varianten mit CSS zum Einsatz. Gerade CSS bietet ein riesiges Spielfeld unsichtbare Texte zu erzeugen. Andere Varianten dieser Spam-Methode ist, winzige Schriftgrößen zu verwenden oder Begriffe in Layern zu verstecken.

Suchmaschinen-Betreiber haben schon lange Erkennungsmechanismen entwickelt, um fast alle dieser Spam-Verfahren aufzuspüren und abzustrafen. Soweit mir bekannt ist, wird man zwar nicht sofort aus dem Index entfernt, aber deutliche Beeinträchtigungen der Bewertung sind in fast allen Fällen klar zu erkennen.

6. Page-Jacking

Das Page-Jacking bezeichnet keine Spam-Methode im eigentlichen Sinn, sondern eher ein Verfahren, um Konkurrenzseiten kaputt zu machen. Selbstredend ist das illegal und kann entsprechend bestraft werden. Unter Page-Jacking werden verschiedene Methoden zusammengefaßt, die einen Schaden beim Mitbewerber zur Folgen haben sollen.

Hier kommen Techniken zum Einsatz, wie z.B. den Server des Konkurrenten zu hacken und die Besucherströme umzuleiten. Andere versuchen mit unerlaubten Redirects oder Double-Content dem Mitbewerber zu schaden. Die Kreativität solcher Betrüger ist wirklich beachtlich. Falls Sie selbst einmal Opfer eines solchen Manipulationsversuchs werden sollten, kann ich Ihnen nur raten professionielle SEOs zu Rate zu ziehen. Denn auch ein Page-Jacker kann nicht alle Spuren verbergen. Mein Rat – wenn Sie so jemanden erwischen, dann verklagen Sie ihn ordentlich. Derart kriminelle Methoden sind keine Kavaliers-Delikte und schaden dem gesamten Internet respektive allen ehrlichen Webmastern.

7. Bait-And-Switch oder Page-Swapping

switchDie Bait-And-Switch bzw. auch Page-Swapping-Methode ist ein kurzlebiges Spam-Verfahren, welches nur relativ selten zu Einsatz kommt. Hier wird versucht zu einem strategisch günstigen Moment – z.B. beim Anmelden einer neuen Internet-Präsenz – der Suchmaschine (bzw. den Robots) – eine gut optimierte Seite zur Verfügung zu stellen.

Später wird diese Seite durch eine Flash-Animation oder eine Java-Script-Seite ausgetauscht, die naturgemäß kaum Chancen hätte gut indiziert zu werden. Kurzlebig ist dieses Verfahren insofern, als der Robot schon beim nächsten Besuch das Täuschungsmanöver erkennt. Aus diesem Grund wird das Page-Swapping – wenn überhaupt – nur noch für kurzfristige Promotion-Aktionen verwendet. Der zu erwartende Gewinn ist im Gegensatz zum Aufwand mehr als bescheiden.

8. Keyword-Spam über Meta-Tags

Diese Methode ist ebenfalls sehr antik und wird heutzutage eigentlich schon von allen Suchmaschinen erkannt. Ich erwähne sie nur der Vollständigkeit halber, da sie immer noch in der Fachliteratur Erwähnung findet. Grundsätzlich geht es darum in den sogenannten Meta-Tags im Header des HTML-Dokuments Keywords zu platzieren, welche das Ranking der eigenen Seite verbessern sollen. Dabei wird beispielsweise versucht das Keyword im Keyword- oder Description-Tag anzuhäufen oder zur Weiterleitung den Refresh-Tag zu nutzen. Die Manipulation von Meta-Tags wird dann zum Spam, wenn z.B. Keywords mit dem angezeigten Seiteninhalt nicht übereinstimmen oder einfach sinnlos angehäuft werden.

Falsche Meta-Tags entstehen jedoch nicht immer zum Zwecke der Täuschung. Viele Newbie-Seitenbauer kopieren z.B. Vorlagen mit bestimmten Metatags und verwenden diese Vorlagen für die gesamte Homepage. Damit kommt es ebenso zu unpassenden Meta-Tags für den Content. Da bei unpassenden Meta-Tags sowohl Unwissen als auch bewußte Täuschung die Ursache des Keyword-Spamings sein kann, spielen Meta-Tags bei der Optimierung einer Seite für Suchmaschinen heutzutage eigentlich keine Rolle mehr.

Entweder werden Sie im Ranking gar nicht mehr berücksichtigt oder nur noch dann, wenn die Keywords irgend einen inhaltlichen Zusammenhang mit dem Content aufweisen. Abstrafungen sind mir persönlich nur in Fällen bekannt, bei denen mehrere Spaming-Verfahren zusammenkommen. Falsche Meta-Tags allein bleiben aber im Normalfall ohne negative Konsequenzen.

9. Keyword-Stuffing

keywordDas Keyword-Stuffing meint bestimmte Keywords im Dokumentenkörper (body tag) exzessiv zu wiederholen, um die Keyword-Dichte (keyword density) drastisch zu erhöhen. Das Wiederholen von Keywords ist natürlich nicht zwangsläufig Spam, sondern gehört auch zur jeder seriösen Überarbeitung von Webseiten. Insofern ist die Grenze fließend, wann das Keyword-Droping von der sinnvollen Optimierung zum Spam wird.

Verfolgt man die Diskussion über die maximale Keyword-Dichte (keyword density) bei relevanten Textkörpern, so wird diese meist bei etwa 15% bis 20% (Maximum) angegeben. Die meisten SEOs empfehlen jedoch eher ein Verhältnis von 3% bis 8% bezogen auf den Gesamttext. Wer diese Werte überschreitet, hat keinen nennenswerten Vorteil bei der Platzierung in den Suchergebnissen. Denn es zählt nicht nur die Anzahl der Keywords, sondern auch das Verhältnis der Keywords zur Gesamtzeichenanzahl, die in einem gesunden Verhältnis stehen muß, wenn es sich um einen lesbaren Text handelt. Die Kriterien von lesbaren Texten sind mittlerweile auch Suchmaschinen bekannt.

Letztlich ist das Keyword-Droping immer eine Gradwanderung zwischen einer guten Lesbarkeit (Readability) und einer guten Indizierung. Denn es nützt wenig, wenn man zwar viele Besucher von den Suchmaschinen bekommt, diese jedoch die Seite schnell wieder verlassen, weil die Texte gruselig zu lesen sind.

Damit bin ich mit meiner kleinen Ausarbeitung am Ende. Ich hoffe Ihnen hilft dieser kleine Überblick, um künftig Foren-Diskussionen oder Fachliteratur zu diesem Thema besser zu verstehen.

Tony Kühn