Ryte

Mehr erfahren
AdWords, KMU, wir machen den Unterschied!
Mehr erfahren

Wenn der Index nicht mehr schluckt

Google  |   |  , 15:57 Uhr  |  17 Kommentare

Bereits im Sommer letzen Jahres berichtete man bei Google, dass die Zahl von 1.000.000.000.000 indexierten Seiten überschritten wurde. Wie viele Seiten genau in der Zwischenzeit indexiert worden sind, erscheint bei dieser Zahl gar nicht mehr wichtig. Interessant ist jedoch, dass der Index weiter wächst und nahezu jede neu gefundene Information gespeichert und verarbeitet werden muss…

Die wirkliche Anzahl der vorhandenen Informationen wird einem vielleicht erst bei folgender Rechnung klar. Die Library of Congress in den USA dürfte mit rund 31 Millionen Büchern die weltweit größte Bibliothek sein. Nehmen wir einmal an, ein Buch hat durchschnittlich 600 Seiten. Macht nach einer einfachen Rechnung ungefähr 18.600.000.000 Seiten Informationen.

Diese Zahl ist war bereits unvorstellbar groß, der Goolge-Index ist allerdings noch 53x größer. Auch wenn diese Rechnung nicht unbedingt der Wahrheit entspricht, so zeigt sie doch recht anschaulich wie groß der Index der Suchmaschine Google in etwa sein könnte. Der größte Teil des Deep Web, Experten vermuten hier noch wesentlich mehr Inhalte, ist dabei noch gar nicht berücksichtigt.

Fakt ist, dass die veröffentlichten Informationen rasant zunehmen. Foren, Blogs, Microblogs, Wikis, Communitys, alle diese System ermöglichen es dem User, Informationen extrem leicht einzustellen. Und weil Content King ist, freuen wir SEOs uns über diese Entwicklung und bereiten alles für eine Indexierung durch die Suchmaschinen vor. Diese nehmen das Angebot noch immer dankend an und speichern die neuen Informationen ab.

Derzeit schluckt der Index nahezu alles, was der Crawler auch findet. Dabei wird weder die Qualität berücksichtigt noch die Frage, ob Informationen bereits im Index vorhanden sind. Ob Webkataloge, Artikelverzeichnisse oder eines der unzähligen Informationsportale, aus Sicht von Google gibt es hier zwar selten etwas Neues zu finden, auch diese Seiten werden jedoch obgleich ihrer fragwürdigen Daseinsberichtigung noch immer alle fein säuberlich gecrawlt und abgespeichert.

Auch wenn Google den Index bis heute nicht beschränkt, heißt es nicht, dass es bereits morgen zu so einer Einschränkung kommen kann. Vorstellbar wäre z.B. auch, dass Informationen zwar gespeichert werden, aber wie auch bei der Abfrage nach Backlinks nicht vollständig ausgegeben werden. Dieses würde zwar einige Existenzen kosten, die Qualität der veröffentlichten Inhalte aber möglicherweise nachhaltig verbessern.

Machen wir uns nichts vor, dass Internet quillt über mit unnützenden, doppelten und wieder und wieder neu aufbereiteten Informationen. Nicht selten hege ich mittlerweile den Wunsch, Google würde einfach nicht mehr alles speichern…

Constantin

Sie befinden sind hier: Wenn der Index nicht mehr schluckt

Kommentare zu Wenn der Index nicht mehr schluckt:

  1. Kristian says:

    @Constantin: Das Merkels Amtsantritt in 55.000 Seiten steht ist unnütz. Doch es gibt viele Meinungen, Ansichten zu dem Faktum dass sie angetreten ist. Und die wollen veröffentlicht werden ;)

  2. Gerhard Zirkel says:

    PS: Vielleicht sollte Google einfach Adsense abschaffen – wie viele miese Seiten werden denn nur deswegen geschaffen? – Werbeverbot im Internet, das würde etwas bringen :)

    Gerhard

  3. Gerhard Zirkel says:

    @Constantin
    Ich glaube nicht dass es möglich ist, eine Eintrittsbarriere zu schaffen. Woran willst du denn das festmachen?

    Die Richtigkeit von Informationen kann Google kaum kontrollieren, denn gerade bei Fachthemen sind sich ja oft nicht mal die Experten einig, wie soll Google denn da vorgehen? Ganz zu schweigen von neuen Ideen die hierzulande noch gar nicht bekannt sind. Da wäre die Gefahr von gekauften Medien noch größer als eh schon – oder glaubst du die Kritiker der Pharmaindustrie hätten dann noch eine Chance?

    Den Schreibstil oder die Grammatik kannst du auch nicht heranziehen, denn was wenn ein Deutscher mit Migrationshintergrund ein absoluter Experte ist aber halt nicht perfekt Deutsch kann?

    @Andreas
    Auch Besuchszeit und Wiederkehrfrequenz kannst du nicht nehmen. Was wäre denn beispielsweise eine gute Besuchszeit? Eine möglichst lange, weil der Besucher lange auf der Seite verweilt? Was wenn er nur schwer findet was er braucht? Oder eine kurze weil er schnell gefunden hat was er suchte? Was wenn er die Seite einfach mies fand?

    Die Wiederkehrfrequenz ist ebenfalls nicht geeignet, es gibt Menschen die lesen eine Seite und vergessen danach sofort welche es war und wenn sie noch so gut gewesen ist – die kehren nie wieder, fanden die Seite aber trotzdem gut. Vielleicht haben sie auch nur eine Information gesucht und gleich gefunden – wieso noch mal wiederkehren?

    So kommen wir an die Sache auch nicht ran.

    Ganz zu schweigen von manuellen Bewertungen – das geht nur so lange bis der erste 1000 Russen engagiert die Seiten bewerten … :)

    Gerhard

  4. Andreas says:

    Und wer entscheidet was Schrott ist? Manche regen sich schon auf, weil Kinderpornos aus dem Netz genommen werden sollen und zücken das Damoklesschwert der freien Meinungsäußerung.

    Nur weil manche meinen, eine Information wäre unwichtig, sollte diese nicht zurückgehalten werden. Was meinst du, welchen Entrüstungssturm es auslösen würde, wenn Google dafür sorgt, dass nur noch „seriöse“ Angebote ind Netz kommen?

    Der Reiz des Internets ist doch gerade das dezentral organisierte chaotische, jeder draf sagen was, wo wann er will (china exklusive).

    Die User entscheiden doch selbst, welche Seite gut ist, welche schlecht.

    Wäre es nicht sinnvoller den Google Alg dahingehend zu optimieren, dass er auch die Besuchszeit, die Wiederkehrfrequenz von Besuchern berücksichtigt? Bis dato entscheiden ja zu mehr als 70% die Links das Ranking von Websites? Wäre es nicht besser, diese manipulierbare Größe anders zu gewichten? Sind Links den wirklich die Wahlstimmen der User, oder entscheiden diese nicht aufgrund der Besucherhäufigkeit und der Aufenthaltsdauer, wie toll eine Seite ist?

    Grüße

    Andreas

    der ehm. Bloggonaut :-)

  5. Constantin says:

    Hallo Gerhard,

    solange es eben keine Eintrittsbarriere gibt, wird sich der User nicht anpassen oder verändern. Deswegen fordere ich eine Barriere, die eben verhindert, dass jeder Schrott aufgenommen wird.

    Ich denke Google ist durchaus in der Lage die Qualität von Texten zu bewerten, zumindest im ausreichenden Maße. Vielleicht kann man hierfür den Rechenalgorithmus von Wolfram nutzen?!

    Liebe Grüße,
    Constantin

1 2 3 4

Kommentar zu Gerhard Zirkel abgeben "Wenn der Index nicht mehr schluckt" kommentieren:




Ihre Agentur noch nicht dabei?


Ihre Agentur noch nicht dabei?