Es kann ziemlich frustrierend sein, festzustellen, dass die eigene Website nicht gut rankt oder man in den Suchergebnissen nur merkwürdige Inhalte sieht. Manchmal liegt es an Cloaking, einem ziemlich hinterhältigen und aus SEO-Sicht etwas zwielichtigen Vorgehen. Cloaking bedeutet im Grunde, dass der Server den Suchmaschinen andere Inhalte anzeigt als die Besucher. Das mag harmlos klingen, wird aber oft eingesetzt, um Suchmaschinen zu besseren Rankings zu verleiten – weder den Nutzern noch der Integrität der Website gegenüber fair.

So erkennen und beheben Sie Cloaking auf Ihrer Website

Methode 1: Verwenden Sie die Google Search Console und vergleichen Sie die Ansichten

Die Google Search Console (GSC) kann dabei helfen, Cloaking-Probleme zu erkennen – zumindest teilweise.Überprüfen Sie mit dem URL-Prüftool, was der Googlebot im Vergleich zu Ihrem Browser sieht. Wenn die Unterschiede deutlich sind, kann dies ein Warnsignal sein. Rufen Sie dazu die URL-Prüffunktion auf, geben Sie Ihre URL ein und sehen Sie sich dann den Abschnitt „Abdeckung“ oder „Abruf wie durch Google“ an.

  1. Besuchen Sie Ihre Webseite mit Ihrem Browser und notieren Sie sich den Inhalt.
  2. Senden Sie in GSC dieselbe URL zur Überprüfung und überprüfen Sie den von Google abgerufenen Snapshot.
  3. Wenn sich das, was Google sieht, von Ihrer Ansicht unterscheidet – insbesondere wenn die Startseite andere Inhalte anzeigt –, liegt möglicherweise Cloaking vor.

Begründung: Dieser schnelle Vergleich hilft zu erkennen, ob Google eine andere Version erhält als Ihre Besucher. Bei einer Nichtübereinstimmung ist damit zu rechnen, dass die Google-Algorithmen die Seite möglicherweise nicht fair bewerten.

Methode 2: Serverprotokolle prüfen und einen serverseitigen Test durchführen

Eine andere Möglichkeit besteht darin, die Ergebnisse Ihres Servers basierend auf dem User-Agent zu vergleichen. Manchmal basiert Cloaking auf der Erkennung des User-Agent-Strings, um unterschiedliche Inhalte bereitzustellen. Um dies zu überprüfen, überprüfen Sie Ihre Serverprotokolle oder führen Sie einen lokalen Test durch. Beispielsweise mit curlBefehlen im Terminal:

curl -A "Googlebot/2.1 (+http://www.google.com/bot.html)" https://yourwebsite.com

und vergleichen Sie dies mit einer Anfrage mit einem normalen Browser-Benutzeragenten, etwa:

curl -A "Mozilla/5.0 (Windows NT 10.0; Win64; x64)" https://yourwebsite.com

Wenn die Antworten unterschiedlich ausfallen – beispielsweise eine Seite vereinfacht oder sogar eine Fehlerseite anzeigt – ist das ein klares Zeichen dafür, dass Cloaking im Spiel sein könnte. In manchen Fällen liefern Webserver oder CMS je nach User-Agent-String unterschiedliche Inhalte.Überprüfen Sie daher, ob Sie benutzerdefinierte Skripte oder CMS-Plugins verwenden, die dies tun.

Methode 3: Verwenden Sie externe Cloaking-Erkennungstools

Es gibt einige Online-Tools, die Ihre Seite aus verschiedenen Perspektiven scannen und Ihnen zeigen, ob der Inhalt variiert. Tools wie der Google Search Simulator oder sogar das indirekte Crawlen Ihrer Website können Unterschiede aufdecken. Manchmal lohnt es sich, einige Tests von verschiedenen Standorten oder IP-Adressen aus durchzuführen, um zu sehen, ob sich der Inhalt je nach Besucherstandort oder anderen Faktoren ändert.

Denken Sie daran: Cloaking ist nicht unbedingt immer bösartig. Manchmal geht es um Geotargeting oder gerätespezifische Inhalte. Der Schlüssel ist, dass alle heimlichen Unterschiede, die das Suchranking manipulieren sollen, in der Regel schlechte Nachrichten bedeuten.

Cloaking beheben oder verhindern

Wenn Sie Cloaking entdecken – ob absichtlich oder nicht –, liegt dies meist an Skripten, Weiterleitungen oder Serverkonfigurationen, die je nach User-Agent oder IP unterschiedliche Inhalte bereitstellen. Um das Problem zu beheben, stellen Sie sicher, dass Ihr Server oder CMS keine Bots erkennt und ihnen unterschiedliche Versionen bereitstellt. Gängige Lösungen sind:

  • Überprüfen Sie Ihren serverseitigen Code, insbesondere wenn Sie PHP, Node.js oder ähnliches verwenden, auf bedingtes Laden von Inhalten basierend auf Headern.
  • Entfernen oder ändern Sie alle Weiterleitungen, die je nach Benutzeragent oder Referrer unterschiedliche Seiten bereitstellen könnten.
  • Überprüfen Sie Ihre robots.txt- Datei – stellen Sie sicher, dass sie keine Ressourcen blockiert oder versehentlich Inhalte verbirgt.
  • Wenn Sie Anti-Crawling-Skripte oder geografische Beschränkungen verwenden, sollten Sie diese deaktivieren oder anpassen, damit sie nicht unerwartet andere Inhalte bereitstellen.

Stellen Sie außerdem sicher, dass der Inhalt Ihrer Website über verschiedene Zugriffsmethoden hinweg konsistent ist. Das bedeutet: Keine versteckten Tricks, keine unterschiedlichen Inhalte nur aufgrund der IP-Adresse oder des Geräts. So erhalten Suchmaschinen ein echtes Gefühl dafür, was Ihre Seite wirklich bietet.

Zusammenfassung

  • Vergleichen Sie die Ansicht von Google und Ihre eigene, um Abweichungen zu erkennen.
  • Verwenden Sie Curl-Befehle, um Serverantworten für verschiedene User-Agent-Header zu testen.
  • Scannen Sie Ihre Site mit externen Tools, um Inhaltsabweichungen zu erkennen.
  • Überprüfen Sie Server- oder CMS-Konfigurationen, die möglicherweise je nach Benutzeragent oder IP unterschiedliche Inhalte bereitstellen.

Zusammenfassung

Das Aufspüren von Cloaking kann etwas mühsam sein, insbesondere auf komplexen Websites. Zu wissen, was die Suchmaschinen sehen, ist jedoch die halbe Miete. Sollte sich herausstellen, dass der Inhalt nicht konsistent ist, müssen in der Regel serverseitige Skripte oder Konfigurationen angepasst werden. Letztendlich ist eine saubere und ehrliche Bereitstellung von Inhalten das Beste – sowohl für Ihre Rankings als auch für die tatsächlichen Nutzer. Wir drücken die Daumen, dass dies hilft, alle versteckten Probleme zu beseitigen.