Die Nachricht an sich ist ja nicht mehr supertopaktuell, dennoch möchte ich auch noch meine paar Groschen in die Runde werfen.
Matt Cutts hat sich wohl also gegenüber tedster von WebmasterWorld dahingehend geäußert, daß Subdomains einer Domain künftig mit Unterverzeichnissen gleichbehandelt werden sollen.
Der Vergleich mit Unterordnern ist hier eher veranschaulichend und leicht irreführend – was Matt Cutts damit meint, ist daß Subdomains von Google künftig nicht mehr wie eigentständige Domains behandelt werden sollen, sondern als Teil der Hauptdomain.
Das Hauptproblem an der derzeitigen Praxis ist nämlich, daß praktisch die kompletten Top 10 von einer einzigen Hauptdomain belegt werden können, was dann manchmal so aussieht:
- www.großesinternetauktionshaus.de
- suche.großesinternetauktionshaus.de
- angebote.großesinternetauktionshaus.de
- autos.großesinternetauktionshaus.de
- buecher.großesinternetauktionshaus.de
- krimskrams.großesinternetauktionshaus.de
usw.
Letztlich führen aber alle Ergebnisse zum gleichen Angebot. Einige der ganz großen Seiten des Webs schaffen es so den Index derart vollzuspammen, daß selbst in umkämpfteren Bereichen kaum mehr eine Vielfalt der Ergebnisse gegeben ist.
Bislang wurde das von Google weitgehend toleriert, lediglich bei allzu großem Subdomain-Spam wurde manuell eingegriffen. Problem ist natürlich auch, daß die ganz Großen ein nicht unerhebliches AdWords-Budget haben, wobei auch hier die Qualität der Anzeigen oft eine Katastrophe ist, aber das ist ein anderes Thema.
Jedenfalls sollen zukünftig auch die Subdomains der Hauptdomain zugeordnet werden, und dadurch die maximale Anzahl der Ergebnisse pro Seite auf 2 pro Hauptdomain reduziert werden.
Das könnte natürlich massiv Traffic kosten, andere wiederum würden profitieren. Nicht nur bei generischen Begriffen, sondern selbstverständlich auch bei Brands, wie Jojo bereits richtig erkannte.
Ein Paradies für Affiliates 😉
Diese Entwicklung ist – im Zuge einer sinnvollen Qualitätssicherung – natürlich längst überfällig. Was zwar häufig als Beispiel angeführt wurde, nämlich die Subdomains von Freehostern wie blogspot & Co., und daß diese eine Ausnahme darstellen, halte ich für relativ. Ich glaube kaum, daß dort zu einem einzigen Thema mehr als 2 wirklich sinnvolle Inhalte hinterlegt sein dürften.
Zudem würde dann zu manchen Keywords nicht zigfach die unterschiedlichen Sprachvarianten von Wikipedia-Artikeln erscheinen, auch wenn vielleicht in der polnischen Variante 2 Infos mehr hinterlegt sind als in der Deutschen und der Englischen.
Allerdings ist auch dies nur ein Zwischenschritt, der sich mittelfristig leicht aushebeln lassen dürfte. Werden die Subdomains nicht mehr eigenständig gewertet, steigt man eben auf andere Domains um. Diese aufzubauen mit einer starken Urpsrungsdomain dürfte eine Frage von ein paar Monaten sein, wenn man Glück hat noch sogar vor der Umstellung durch Google.
Zum Einen gibt es ja schon unzählige alternative TLDs, zum Anderen registriert man einfach ein paar Neue. Dürfen wir uns also bald auf SERPs nach diesem Muster freuen?
- www.großesinternetauktionshaus.de
- www.großesinternetauktionshaus-suche.de
- www.großesinternetauktionshaus-angebote.de
- www.großesinternetauktionshaus-autos.de
- www.großesinternetauktionshaus-buecher.de
- www.großesinternetauktionshaus-krimskrams.de
usw.
Die Hürden sind also kein wirkliches Problem, sie werden halt ein bißchen höher. Für eine langfristig wirklich sinnvolle SERPs-Qualität wären zahlreiche weitere Erkennungsmerkmale für diese Satelliten vonnötigen wie z. B. bessere Inhaltserkennung, Domain-Inhaber, bessere Spracherkennung, Domains der Outbound-Links usw.
Und letztlich wird auch Google erkennen müssen, daß sich Ordnung nicht allein über Algorithmen schaffen läßt.
[…] Gleichbehandlung von Subdomains und Unterordnern könnte schon bald für sehr viel Wirbel im Google-Index […]