SISTRIX Toolbox
SISTRIX Toolbox

Mehr erfahren
AdWords, KMU, wir machen den Unterschied!
Mehr erfahren

Wenn der Index nicht mehr schluckt

Google  |   |  , 15:57 Uhr  |  17 Kommentare

Bereits im Sommer letzen Jahres berichtete man bei Google, dass die Zahl von 1.000.000.000.000 indexierten Seiten überschritten wurde. Wie viele Seiten genau in der Zwischenzeit indexiert worden sind, erscheint bei dieser Zahl gar nicht mehr wichtig. Interessant ist jedoch, dass der Index weiter wächst und nahezu jede neu gefundene Information gespeichert und verarbeitet werden muss…

Die wirkliche Anzahl der vorhandenen Informationen wird einem vielleicht erst bei folgender Rechnung klar. Die Library of Congress in den USA dürfte mit rund 31 Millionen Büchern die weltweit größte Bibliothek sein. Nehmen wir einmal an, ein Buch hat durchschnittlich 600 Seiten. Macht nach einer einfachen Rechnung ungefähr 18.600.000.000 Seiten Informationen.

Diese Zahl ist war bereits unvorstellbar groß, der Goolge-Index ist allerdings noch 53x größer. Auch wenn diese Rechnung nicht unbedingt der Wahrheit entspricht, so zeigt sie doch recht anschaulich wie groß der Index der Suchmaschine Google in etwa sein könnte. Der größte Teil des Deep Web, Experten vermuten hier noch wesentlich mehr Inhalte, ist dabei noch gar nicht berücksichtigt.

Fakt ist, dass die veröffentlichten Informationen rasant zunehmen. Foren, Blogs, Microblogs, Wikis, Communitys, alle diese System ermöglichen es dem User, Informationen extrem leicht einzustellen. Und weil Content King ist, freuen wir SEOs uns über diese Entwicklung und bereiten alles für eine Indexierung durch die Suchmaschinen vor. Diese nehmen das Angebot noch immer dankend an und speichern die neuen Informationen ab.

Derzeit schluckt der Index nahezu alles, was der Crawler auch findet. Dabei wird weder die Qualität berücksichtigt noch die Frage, ob Informationen bereits im Index vorhanden sind. Ob Webkataloge, Artikelverzeichnisse oder eines der unzähligen Informationsportale, aus Sicht von Google gibt es hier zwar selten etwas Neues zu finden, auch diese Seiten werden jedoch obgleich ihrer fragwürdigen Daseinsberichtigung noch immer alle fein säuberlich gecrawlt und abgespeichert.

Auch wenn Google den Index bis heute nicht beschränkt, heißt es nicht, dass es bereits morgen zu so einer Einschränkung kommen kann. Vorstellbar wäre z.B. auch, dass Informationen zwar gespeichert werden, aber wie auch bei der Abfrage nach Backlinks nicht vollständig ausgegeben werden. Dieses würde zwar einige Existenzen kosten, die Qualität der veröffentlichten Inhalte aber möglicherweise nachhaltig verbessern.

Machen wir uns nichts vor, dass Internet quillt über mit unnützenden, doppelten und wieder und wieder neu aufbereiteten Informationen. Nicht selten hege ich mittlerweile den Wunsch, Google würde einfach nicht mehr alles speichern…

Constantin

Sie befinden sind hier: Wenn der Index nicht mehr schluckt

Kommentare zu Wenn der Index nicht mehr schluckt:

  1. Gerhard Zirkel says:

    Im Internet gilt das gleiche wie in der „echten“ Welt – wer am lautesten schreit, dem wird geglaubt. Ob die Information nun richtig ist oder völliger Schrott kann weder im Netz noch außerhalb unterschieden werden, zumal die Leute die jeweils Ahnung haben selten am lautesten schreien :)

    Eine inhaltliche Bewertung wird es also so schnell nicht geben, bis dahin wird halt alles aufgenommen und der am lautesten schreit steht auf Platz 1 – was er schreit ist Google völlig wurscht.

    Ändern können das nur die Nutzer, denn immernoch gelten Links etwas im Web. Fangen wir doch an, gezielt gute und informative Seiten freiwillig und ohne Tausch zu verlinken – wenn das alle machen, wird sich der Index ganz von alleine verbessern.

    Gerhard Zirkel

  2. Constantin says:

    @Marc: Es ist einfach nicht notwendig, dass beispielsweise die Suche nach dem Amtsantritt von Angela Merkel 55.000 Ergebnisse liefert. Immerhin handelt es sich ja um ein Faktum.

    @Pascal: Wenn er weiß, dass es so viele Seiten gibt, muss er sie ja auch irgendwo gespeichert haben?!

    Liebe Grüße,
    Constantin

  3. Pascal says:

    „1.000.000.000.000 indexierten Seiten überschritten“ ist falsch. Der GoogleBot hat nur so viele unique Seiten gefunden, aber nicht in den Index aufgenommen :)

  4. Marc says:

    Na ja wie soll eine Maschine auch erkennen ob eine Information sinnvoll oder nützlich ist. Alleine anhand des Textes ist es denke ich extrem schwer. Beispielsweise zwei Seiten auf denen der Text einer Fehlermeldung den Hauptanteil bildet. Auf der einen steht drunter „Scheiß Microsoft, kotzt mich tierisch an!“ und beim andern „Update mal X, dann geht es wieder“. Wäre natürlich blöde wenn die erste in den Index kommt und die zweite nicht.

  5. der-nette-seo says:

    Da geb ich dir vollkommen recht. Nicht selten kommt es vor, dass ich bei einer Suchanfrage in einem Forum lande. In diesem wird meine Frage nicht benatwortet, aber dafür gibt es 3 Links zu weiteren Seiten und Foren wo das Thema schon einmal behandelt wurde…

1 2 3 4

Jetzt zu "Wenn der Index nicht mehr schluckt" kommentieren:




Ihre Agentur noch nicht dabei?


Ihre Agentur noch nicht dabei?