Duplikate durch Webkatalogeinträge

11.03.2011
In der Vergangenheit waren die unten beschriebenen Fälle für viele Webmaster immer wieder Anlaß Nachforschungen anzustellen, weshalb ihre Webseiten nicht indiziert wurden. Glücklicherweise waren davon meist nur schwache Unterseiten einer Homepage betroffen. Mit zunehmender Stärke der Homepage und mit der inzwischen erfolgten Abwertung der Webkataloge sollten diese Beispiele nicht mehr sehr häufig auftreten, sollten aber auch nicht ganz außer Acht gelassen werden, wenn es Probleme mit dem Ranking einer Homepage gibt. Die Beispiele sind nicht nur typisch für Webkataloge. Probleme dieser Art können auch von jeder x-beliebigen Website ausgelöst werden.

Kurze Texte

Webseiten mit sehr wenig Text, beispielsweise Bildergalerien, können durch Unachtsamkeit beim Eintragen in Webkataloge Schaden nehmen. Hier sollte auf alle Fälle darauf geachtet werden, dass nicht der ohnehin schon sehr kurze Text oder ein Textausschnitt, der zu verknüpfenden Seite, als 1:1 Kopie für den Webkatalogeintrag verwendet wird. Wird dies nicht beachtet, kann es als Duplicate Content (DC) gewertet werden. Die verknüpfte Seite erscheint folgedessen plötzlich als zusätzliches Ergebnis im Index der Suchmaschinen oder ist gar nicht mehr zu finden. In diesem Fall ist die einzutragende Seite, aus Sicht der Suchmaschine, weniger wichtig als die Seite des Webkataloges. Dieses Szenario kommt dann zum Tragen, wenn die Katalogseite stärker ist als die einzutragende Seite.

Automatische Einträge in Webkataloge

Es gibt Webverzeichnisse, welche ihre Spider im Internet selbst nach Webseiten suchen lassen und diese unaufgefordert, automatisch in Ihren Katalog aufnehmen. Hier besteht die Gefahr für die eingetragene Webseite aus dem Index der namhaften Suchmaschinen zu fallen, da die Daten 1:1 von der Webseite übernommen werden. Für Seiten mit viel Text stellt das nach unseren Erfahrungen keine Gefahr dar, auch wenn die Webkatalogseite stärker ist als die eingetragene Seite. Vorausgestzt es wird nur ein kleiner Teil des Textes einer Seite für den Katalogeintrag verwendet. Liest der Spider jedoch den kompletten Text aus der Seite, incl. der Meta-tags, Alt-tags und Title-tags und wird alles in den Katalog übernommen, so ist die Wahrscheinlichkeit groß, dass die eingetragene Seite aus dem Index der großen Suchmaschinen fällt, wenn sie noch sehr schwach ist.

Diese Ursache für eine nicht mehr Indexierung zu finden ist häufig sehr schwierig, da die Spider anonym handeln und den Webmaster meist nicht über den Eintrag informieren. Da hilft nur über die Phrasensuche in einer Suchmaschine, den doppelten Content ausfindig zu machen und falls es sich wirklich um einen Webkatalogeintrag handelt, den Katalogbetreiber zur Löschung des Eintrages aufzufordern oder bei einem halbwegs seriösen Katalog um Änderung des Anker- und Beschreibungstextes zu bitten. Eine zweite Möglichkeit den so entstandenen doppelten Content zu beseitigen wäre, den Text und die Metadaten der eingetragenen Webseite durch Veränderung anzupassen.

Wir halten automatische Eintragungen, durch automatisches Auslesen der Daten aus Webseiten über welche der Webmaster nicht informiert wird, nicht für besonders seriös. Leider kann dies kaum verhindert werden, denn die robots.txt beachten diese bots meist nicht.


Warning: include(inc/ads-rec.php): failed to open stream: No such file or directory in /home/www/homepage/webkatalog-duplikate.php on line 32

Warning: include(inc/ads-rec.php): failed to open stream: No such file or directory in /home/www/homepage/webkatalog-duplikate.php on line 32

Warning: include(): Failed opening 'inc/ads-rec.php' for inclusion (include_path='.:/usr/share/php') in /home/www/homepage/webkatalog-duplikate.php on line 32

Diese Methoden sind nicht mit normalen Katalogeintragungen zu verwechseln, welche der Webmaster selbst vornimmt. Auch da gibt es Scripte, welche zur Erleichterung die Metadaten aus der einzutragenden Webseite lesen. Hier gibt es aber anschließend die Möglichkeit, diese ins Formular eingelesenen Daten, nach Wunsch zu bearbeiten, bevor das Formular abgesendet wird.

Webkataloge lesen komplette Seiten ein

Dies ist auch eine Art doppelten Content zu erzeugen. Das Einlesen kompletter Webseiten mit viel Text und Bildern, für einen Katalogeintrag, stellt nicht nur eine große Gefahr für die Indexierung der eingelesenen Seite, in den großen Suchmaschinen dar, sondern ist auch gesetzeswidrig. Es gab in der Vergangenheit Kataloge, die sich auf diese Art viel Content verschafft hatten und dadurch mit fremdem Inhalt zu hohem Pr kamen. Uns ist kein aktuelles Beispiel bekannt aber es könnte diese Exemplare noch geben, deshalb wollen wir hier darauf aufmerksam machen und vor allem den unerfahrenen Katalognutzern den Hinweis geben, sich in solche Webkataloge nicht einzutragen.

© www.homepage-analysieren.de | Impressum