Supplemental-Index
Wozu gibt es den Supplemental-Index?
15.08.2006
Noch sind unsere Erkenntnisse sehr wage, aber fangen wir einmal an uns Gedanken darüber zu machen.
Google scheint eine Art Qualitätskontrolle einzuführen, bei der es darum geht, wichtigere Seiten von unwichtigeren zu trennen. Dabei entscheidet zunächst Google, was wichtig und was unwichtig ist. Webmaster können bestenfalls darauf reagieren und ihre Webseiten dementsprechend optimieren. Auf diese Art lässt sich sicherlich eine ganze Reihe von Spamseiten aus dem regulären Index entfernen, aber es wird wie immer auch unschuldige Seiten treffen.
Welche Seiten laufen Gefahr in den Supplemental-Index zu rutschen?
Firmen-Websites
Warning: include(inc/ads-rec.php): failed to open stream: No such file or directory in /home/www/homepage/supplemental.php on line 28
Warning: include(inc/ads-rec.php): failed to open stream: No such file or directory in /home/www/homepage/supplemental.php on line 28
Warning: include(): Failed opening 'inc/ads-rec.php' for inclusion (include_path='.:/usr/share/php') in /home/www/homepage/supplemental.php on line 28
Die Optimierung von Websites, vor allem Firmenwebsites in nicht umkämpften Bereichen ist meist schlecht und die Aktualität der Inhalte lässt auch oft zu wünschen übrig. Da Google die Filter verschärft hat, würden diese Seiten aus dem Index fallen. In diesen wenig optimierten Bereichen würde es ohne diesen supplemental-Index teilweise gar keine Ergebnisse geben. Google möchte natürlich so viele Ergebnisse wie möglich anzeigen, zumal diese Seiten meist auch keinen Spam enthalten, weil sie gar nicht oder schlecht für die Suchmaschinen optimiert wurden.
Man sollte sich nun nicht gelassen zurück lehnen und denken diese Situation wird ewig so bleiben. Es ist sicher besser diese so genannten zusätzlichen Ergebnisse durch Verbesserung der Seiten in reguläre Ergebnisse umzuwandeln.
Webverzeichnisse
Bei der Site-Abfrage von Webverzeichnissen ist uns aufgefallen, dass viele Seiten im Supplemental-Index landen, die sich nur durch ein Wort jeweils im Text, im Title und der Description unterscheiden. Es handelt sich dabei beispielsweise um so genannte "link eintragen" Seiten. Davon gibt es dann eine für jede Kategorie. Bei z.T. mehreren hundert Kategorien incl. Unterkategorien entstehen sehr viele dieser fast identischen Seiten. Will man sie wirklich in den Index bekommen, sollte man darüber nachdenken, etwas unterschiedlichen Kontent auf die Seiten zu bringen. Andernfalls, und dies ist sicherlich die bessere Lösung, sollte man diese Seiten über die robots.txt oder den Meta-Tag robots für die Suchmaschinen sperren, denn wir haben die Vermutung, dass ein ungesundes Verhältnis dieser Seiten zu den Kontent-Seiten der gesamten Website schaden könnte.
Webseiten mit Session-id's
Diese Seiten gehören so nicht in den Index, da sie ja immer den gleichen Inhalt haben können. Bei jedem Aufruf der Seite durch den robot wird eine Seite neu erzeugt, die sich nur in der Session-id unterscheidet - also x-facher DC. Es gehört nur die wirkliche Seite ohne Session-id in den Index. Man sollte also beim Aufruf der Seite eine Abfrage starten, ob der Besucher ein robot oder ein user ist. Die Session-id sollte nur bei einem user gestartet werden. Dieses dürfte auch nicht als cloacking gewertet werden, der bot bekommt ja keinen anderen Inhalt. Eine weitere Möglichkeit besteht darin, Seiten mit Session-id's in der robots.txt zu sperren. Es ist auch nicht immer notwendig Session-id's zu erzeugen, auch dieser Umstand sollte geprüft und ggf. die Funktion abgeschaltet werden.
Dynamische Webseiten
Auch bei dynamisch erzeugten Webseiten haben wir oft Seiten im Supplemental-Index gesehen. Hierbei ist es ebenfalls möglich auf schnelle Weise massenhaft DC oder inhaltsleere Seiten zu erzeugen. Da eine Website früher in der Gunst von Google besseres Ansehen genoss, je mehr Unterseiten sie besaß, waren viele Webmaster daran interessiert zig-tausende Unterseiten zu erzeugen. Hier scheint Google nun einen Riegel vorgeschoben zu haben.
Schlechte interne Verknüpfung der Unterseiten
Nach neueren Erkenntnissen scheint auch eine schlechte interne Struktur der Verknüpfungen der Seiten untereinander einen Einfluss darauf zu haben, ob eine Webseite in den zusätzlichen Index verschoben wird. Wir haben Seiten mit wirklich umfangreichem einzigartigem Kontent. Diese Seiten besitzen individuell angepasste Meta-Angaben aber eine schlechte Verbindung innerhalb des Projektes. Es verweist jeweils nur ein Navigationsbutton aus zweiter Ebene, mit pr2 auf diese Seiten. Dieser eine Verweis scheint zu wenig zu sein. Selbst haben diese Seiten mehrere ausgehende interne Verknüpfungen. Die Seiten des Projektes, die im regulären index sind haben alle mehrere eingehende interne Verweise. Manche dieser Seiten aus dem regulären Index haben sogar fast noch gar keinen Content, sind aber über die Hauptnavigation aufrufbar.
Unser Fazit:
Auch wenn Websites mit ihren Suchbegriffen noch gut gelistet sind, diese aber aus dem Supplemental-Index kommen, kann es passieren, dass sie irgendwann nicht mehr gefunden werden. Nach unserer Erkenntnis spätestens dann, wenn 1000 Ergebnisse im normalen Index gefunden werden, abgesehen davon, dass in diesen Regionen sowieso niemand mehr sucht. Ein klarer Fall also zum analysieren der betroffenen Webseiten um sie für die Suchmaschinen neu zu optimieren.
10.01.2007
Matt Cutts Aussagen zu folge wurden Webseiten, die sich im Supplemental Index befinden, nicht zwangsläufig bestraft. In seinem Bericht: Infrastruktur Status, Januar 2007 empfiehlt er jedoch solide White-Hat-SEO-Methoden anzuwenden und sich um qualitativ hochwertige Empfehlungen von externen Webseiten zu bemühen, wenn die Seiten aus dem regulären Index in den Supplemental Index abgerutscht sind, um sie wieder zurück zu holen.
Zusätzliche Ergebnisse - Ähnliche Ergebnisse
Im Unterschied zu den zusätzlichen Ergebnissen befinden sich ähnliche Ergebnisse im normalen Index und werden auch ganz normal gefunden. Nach unseren Erkenntnissen betrifft es Seiten mit unterschiedlichem Kontent aber gleich lautendem Title, Description-Tag und Keywords-Tag. Gibt man jeder Seite einen individuellen Title und passt auch die Meta-Tags dem Seiteninhalt entsprechend an, sollte sich dieses Problem lösen lassen. Ob ähnliche Seiten nah dran sind in den zusätzlichen Index zu rutschen konnten wir noch nicht erkennen, aber es liegt sehr nah, dass dieses beim nächsten Anziehen der Suchmaschinenschrauben passieren könnte.