Bigdaddy

06. August 2006

Algorithmus-Update

Big Daddy war kein gewöhnliches Update sondern ein Infrastruktur-Update. Dabei gab es große Veränderungen im Algorithmus der Suchmaschine Google. Dies sorgte für viel Wirbel und Unsicherheit in der Seo-Welt und wird sicherlich einige Veränderungen in der Suchmaschinenoptimierung von Webseiten mit sich bringen.

Viele Webseiten haben, seit Bigdaddy auf den Datencentern von Google läuft, massive Probleme. Dabei hat es nicht nur Spamseiten getroffen. Viele Webseiten kämpfen mit dem supplemental-Problem. Die Ursachen in den Supplemental-Index zu geraten scheinen vielfältig zu sein. Websites, die mit Session-Id's indiziert worden sind und dadurch unendlich viel duplicate Content erzeugen, scheinen zu diesen Problemseiten zu gehören. Aber auch Websites, die beispielsweise über php-scripte, dynamisch Webseiten erzeugen, die sich nur unwesentlich voneinander unterscheiden, laufen Gefahr diese Unterseiten an den Supplemental-Index zu verlieren. Bestes Beispiel sind hier Webkataloge mit vielen leeren Kategorieseiten. Oft ist in Seo-Foren von neuen Webmastern zu lesen: "Ich habe jetzt 10.000 Seiten im Index." Meist handelt es sich dabei um ein neu aufgesetztes kostenloses Webkatalogscript, ohne einen einzigen Eintrag. Der Mehrwert für Google geht hier natürlich gegen Null und diese Seiten scheinen nun ausgefiltert zu werden.

Ein weiteres, viel geringeres Problem haben Websites, die nur noch wenige Unterseiten im regulären Index besitzen, die restlichen Webseiten jedoch als "ähnliche Seiten" ausgewiesen bekommen. Im Unterschied zu den zusätzlichen Ergebnissen, deren Inhalt über die Suche in hart umkämpften Bereichen nicht gefunden wird, werden ähnliche Seiten aber gefunden. Passt man Titel und Description dem Inhalt der jeweiligen Webseite an, kann dieses Problem meist schon gelöst werden.

Nach unseren Beobachtungen sind durch diese Probleme viele Verweise, z.B. aus Webkatalogen oder Artikelverzeichnissen, für Google nicht mehr vorhanden. Dies hat wahrscheinlich zur Folge, dass der Pr der, mit diesen Seiten verknüpften, Websites gesunken ist.

Ein uralter Cache vieler Webseiten, im Index von Google, gibt weitere Rätsel auf. Zum Teil ist dieser inzwischen ein Jahr alt. Das merkwürdige daran ist, dass der Cache der besagten Seiten schon einmal aktueller war. Weshalb werden diese uralten, längst überholten Daten wieder hervorgeholt?

Aber auch viele neue Webseiten müssen, nach einer Veränderung, ewig auf eine Aktualisierung des Caches warten. Wahrscheinlich ist dies auf zu wenige externe Verweise zurück zu führen, woraus ein niedriger Pr resultiert, infolge dessen die spider nur noch selten vorbei kommen.

Wir gehen zusätzlich von Google-Problemen aus, die wahrscheinlich nach der Neuberechnung aller indizierten Webseiten verschwinden werden

Matt Cuts beantwortete in seinem Blog, im Artikel: Feedback on Bigdaddy data center einige Fragen von Webmastern und Suchmaschinenoptimierern. Anfang 2006 lief bigdaddy testweise nur auf zwei Rechenzentren - 66.249.93.104 und 64.233.179.104. Über diese Datencenter sollten die Feedbacks der Seos und Webmaster an Google geschickt werden um die Qualität der Suchergebnisse zu verbessern.

© www.homepage-analysieren.de | Impressum