SISTRIX Toolbox
SISTRIX Toolbox

Mehr erfahren
Brands, KMU, wir machen den Unterschied!
Mehr erfahren

Wenn der Index nicht mehr schluckt

Google  |   |  , 15:57 Uhr  |  17 Kommentare

Bereits im Sommer letzen Jahres berichtete man bei Google, dass die Zahl von 1.000.000.000.000 indexierten Seiten überschritten wurde. Wie viele Seiten genau in der Zwischenzeit indexiert worden sind, erscheint bei dieser Zahl gar nicht mehr wichtig. Interessant ist jedoch, dass der Index weiter wächst und nahezu jede neu gefundene Information gespeichert und verarbeitet werden muss…

Die wirkliche Anzahl der vorhandenen Informationen wird einem vielleicht erst bei folgender Rechnung klar. Die Library of Congress in den USA dürfte mit rund 31 Millionen Büchern die weltweit größte Bibliothek sein. Nehmen wir einmal an, ein Buch hat durchschnittlich 600 Seiten. Macht nach einer einfachen Rechnung ungefähr 18.600.000.000 Seiten Informationen.

Diese Zahl ist war bereits unvorstellbar groß, der Goolge-Index ist allerdings noch 53x größer. Auch wenn diese Rechnung nicht unbedingt der Wahrheit entspricht, so zeigt sie doch recht anschaulich wie groß der Index der Suchmaschine Google in etwa sein könnte. Der größte Teil des Deep Web, Experten vermuten hier noch wesentlich mehr Inhalte, ist dabei noch gar nicht berücksichtigt.

Fakt ist, dass die veröffentlichten Informationen rasant zunehmen. Foren, Blogs, Microblogs, Wikis, Communitys, alle diese System ermöglichen es dem User, Informationen extrem leicht einzustellen. Und weil Content King ist, freuen wir SEOs uns über diese Entwicklung und bereiten alles für eine Indexierung durch die Suchmaschinen vor. Diese nehmen das Angebot noch immer dankend an und speichern die neuen Informationen ab.

Derzeit schluckt der Index nahezu alles, was der Crawler auch findet. Dabei wird weder die Qualität berücksichtigt noch die Frage, ob Informationen bereits im Index vorhanden sind. Ob Webkataloge, Artikelverzeichnisse oder eines der unzähligen Informationsportale, aus Sicht von Google gibt es hier zwar selten etwas Neues zu finden, auch diese Seiten werden jedoch obgleich ihrer fragwürdigen Daseinsberichtigung noch immer alle fein säuberlich gecrawlt und abgespeichert.

Auch wenn Google den Index bis heute nicht beschränkt, heißt es nicht, dass es bereits morgen zu so einer Einschränkung kommen kann. Vorstellbar wäre z.B. auch, dass Informationen zwar gespeichert werden, aber wie auch bei der Abfrage nach Backlinks nicht vollständig ausgegeben werden. Dieses würde zwar einige Existenzen kosten, die Qualität der veröffentlichten Inhalte aber möglicherweise nachhaltig verbessern.

Machen wir uns nichts vor, dass Internet quillt über mit unnützenden, doppelten und wieder und wieder neu aufbereiteten Informationen. Nicht selten hege ich mittlerweile den Wunsch, Google würde einfach nicht mehr alles speichern…

Constantin

Sie befinden sind hier: Wenn der Index nicht mehr schluckt

Kommentare zu Wenn der Index nicht mehr schluckt:

  1. Sascha sagt:

    Ich denke, dass hier die Qualität schon eine wichtige Rolle spielt. Der Hauptfaktor wären aber wahrscheinlich die Kosten die durch die Indexierung dieser unglaublichen Datenmengen anfallen.

  2. […] interessanten Artikel zu Google gab es auf seo-united.de. Darin wurde die Frage gestellt, wie lange Google es sich noch leisten kann, jeden Fetzen Internet […]

1 2 3 4

Jetzt zu "Wenn der Index nicht mehr schluckt" kommentieren:

Loading Disqus Comments ...

Ihre Agentur noch nicht dabei?

Ihr Job noch nicht dabei?

Ihr Beitrag noch nicht dabei?