SISTRIX Toolbox
SISTRIX Toolbox

Mehr erfahren
Brands, KMU, wir machen den Unterschied!
Mehr erfahren

Ist Google zu cheaten schwieriger geworden?

SEO  |   |  , 10:46 Uhr  |  12 Kommentare

Wenn Googles Algorithmus zur Berechnung der Relevanz von Webseiten von 100 `guten´ Webseiten nur 90 erkennt, ist das nicht so tragisch. Wenn eine zur Bekämpfung von Webspam eingeführte Algorithmus-Änderung dagegen von 100 `schlechten´ Webseiten auch 10 gute abwertet hat, haben wir ein Problem…

Bei einem aus mehreren Kriterien (bei Penguin z.B. Anchor-Texte, Keyword-Density usw.) bestehenden Algorithmus zur Abwertung minderwertiger Webseiten ist es in der Praxis wahrscheinlich fast unmöglich, diesen so einzustellen, dass nicht immer auch sehr viele unschuldige Seiten betroffen sind. Schraubt man an der Prozentzahl des einen Kriteriums herum, muss man immer auch die anderen wieder neu justieren. Eine kaum zu lösende Aufgabe!

Zusammenhänge von Webinhalten

Mittlerweile ist davon auszugehen, dass sämtliche Betreiber bekannter Suchmaschinen ihre Ergebnisse immer öfter auch von Menschen bewerten lassen! Es ist kein Geheimnis, dass z.B. Google hunderte von Rater beschäftigt, welche den ganzen Tag nichts anderes tun als Webinhalte zu bewerten. In dem kürzlich auf seobythesea.com veröffentlichten Artikel `How Google Might Disassociate Webspam from Content´ beschreibt Bill Slawski ein kürzlich gegenüber Google genehmigtes Patent, welches den Bewertungs-prozess von Webinhalten näher beschreibt:

A first content entity and one or more associated second content entities are presented to one or more arbiters. Arbiter determinations relating to the association of at least one of the second content entities with the first content entity are received […] A determination as to whether the at least one of the second content entities is to be disassociated from the first content entity based on the arbiter determinations can be made.

Sehr vereinfacht ausgedrückt beschreibt das Patent ein Verfahren, bei dem softwaregesteuert für eine Bewertung x-beliebiger Zusammenhänge von Webinhalten geeignete Rater ermittelt werden und diese dann nach einem vorgegebenen Ablauf eine wie auch immer geartete Bewertung abgeben. Ist eine Webseite relevant für diesen Suchterm? Passt dieser Kommentar zum Inhalt dieses Artikels? Ist diese Beschreibung geeignet für dieses Bild?

Was hat das mit Penguin zu tun?

Wie Johannes Beus in dem unten zu sehenden Interview mit Andreas Graap zurecht anmerkt, hat das Penguin Update von Google eine erstaunlich geringe Fehlerquote. Kaum eine Webseite die es negativ getroffen hat, hätte einer manuellen Qualitätsbewertung standgehalten. Die Erfolgsquote des Penguin Updates scheint kurioserweise ebenfalls nicht sehr hoch zu sein. Es gibt zahlreiche Webseiten, die das Update normalerweise definitiv hätte treffen müssen. Alles in allem doch recht ungewöhnlich für einen mathematischen Algorithmus!

Um den an jeder Ecke ineinander verzahnten Algorithmus von Webseiten zumindest immr wieder abzugleichen, benötigt Google nachweislich stimmende `Cross-Daten´ aus menschlicher Hand! Egal, ob nun direkt oder über die `Hintertür´ eingeflochten, ist bei den jüngsten Updates von Google (Panda, Penguin usw.) davon auszugehen, dass deren Auswirkungen – wie immer nun auch genau – zu einem Teil auch auf manuellen Ratings beruhen.

Negativ vom Penguin Update betroffenen Webseitenbetreiber wird teilweise geraten, ihr Linkprofil bzw. ihre Inhalte einfach so zu gestalten, dass sie aus dem `Penguin-Filter´ wieder herauskommen. „Wer zukünftig sauber arbeitet, der wird irgendwann auch wieder dort gelistet werden wo er vor dem Update stand„, lautet oftmals die Devise.

Meiner Meinung nach ist nicht auszuschließen, dass nicht wenige der negativ vom Penguin Update betroffenen Webseiten niemals wieder ihre alten Rankings erreichen werden. Wer vom Update betroffen ist, der muss damit rechnen, dass seine Seite – wie immer nun auch genau – manuell (gegen-)gecheckt wurde und trotz eines womöglich irgendwann sauberen Linkprofils immer einen Dämpfer behalten wird!

Johannes und Andreas diskutieren in ihrem Interview die Frage, ob Google zu `cheaten´ schwieriger geworden ist. Meiner Ansicht nach ist dieses definitiv der Fall. Google und Co. sind längst schon keine reine Algorithmus-Maschinen mehr, sondern werden immer häufiger auch von Menschen-Hand betrieben…

Weiterführende Informationen

Gretus

Sie befinden sind hier: Ist Google zu cheaten schwieriger geworden?

Kommentare zu Ist Google zu cheaten schwieriger geworden?:

  1. Sebastian Sötje Website sagt:

    Die Möglichkeit menschliche „Rater“ zu Rate zu ziehen finde ich recht interessant. Allerdings bleibt die Frage, ob eben diese darüber informiert werden, bzw. selbst darüber stolpern können, wenn ein erneuter Blick über das betroffene Projekt lohnenswert sein könnte. Grundsätzlich also eine tolle Sache, aber mir fehlt die Nachhaltigkeit. Ich selbst gebe auch hin und wieder eine schlechte Bewertung für dies oder das ab, überarbeite oder korrigiere diese aber sofort, sollte sich auf Grund meiner Kritik etwas verbessern. Genau das ist eigentlich das wichtigste. Die Kritik sollte etwas bewegen. Dies funktioniert aber nur, wenn die Hoffnung besteht, dass eine Änderung etwas ausmachen könnte.

1 2 3

Jetzt zu "Ist Google zu cheaten schwieriger geworden?" kommentieren:

Loading Disqus Comments ...

Ihre Agentur noch nicht dabei?

Ihr Job noch nicht dabei?

Ihr Beitrag noch nicht dabei?