SISTRIX Toolbox
SISTRIX Toolbox

Mehr erfahren
Brands, KMU, wir machen den Unterschied!
Mehr erfahren

Ist Google zu cheaten schwieriger geworden?

SEO  |   |  , 10:46 Uhr  |  12 Kommentare

Wenn Googles Algorithmus zur Berechnung der Relevanz von Webseiten von 100 `guten´ Webseiten nur 90 erkennt, ist das nicht so tragisch. Wenn eine zur Bekämpfung von Webspam eingeführte Algorithmus-Änderung dagegen von 100 `schlechten´ Webseiten auch 10 gute abwertet hat, haben wir ein Problem…

Bei einem aus mehreren Kriterien (bei Penguin z.B. Anchor-Texte, Keyword-Density usw.) bestehenden Algorithmus zur Abwertung minderwertiger Webseiten ist es in der Praxis wahrscheinlich fast unmöglich, diesen so einzustellen, dass nicht immer auch sehr viele unschuldige Seiten betroffen sind. Schraubt man an der Prozentzahl des einen Kriteriums herum, muss man immer auch die anderen wieder neu justieren. Eine kaum zu lösende Aufgabe!

Zusammenhänge von Webinhalten

Mittlerweile ist davon auszugehen, dass sämtliche Betreiber bekannter Suchmaschinen ihre Ergebnisse immer öfter auch von Menschen bewerten lassen! Es ist kein Geheimnis, dass z.B. Google hunderte von Rater beschäftigt, welche den ganzen Tag nichts anderes tun als Webinhalte zu bewerten. In dem kürzlich auf seobythesea.com veröffentlichten Artikel `How Google Might Disassociate Webspam from Content´ beschreibt Bill Slawski ein kürzlich gegenüber Google genehmigtes Patent, welches den Bewertungs-prozess von Webinhalten näher beschreibt:

A first content entity and one or more associated second content entities are presented to one or more arbiters. Arbiter determinations relating to the association of at least one of the second content entities with the first content entity are received […] A determination as to whether the at least one of the second content entities is to be disassociated from the first content entity based on the arbiter determinations can be made.

Sehr vereinfacht ausgedrückt beschreibt das Patent ein Verfahren, bei dem softwaregesteuert für eine Bewertung x-beliebiger Zusammenhänge von Webinhalten geeignete Rater ermittelt werden und diese dann nach einem vorgegebenen Ablauf eine wie auch immer geartete Bewertung abgeben. Ist eine Webseite relevant für diesen Suchterm? Passt dieser Kommentar zum Inhalt dieses Artikels? Ist diese Beschreibung geeignet für dieses Bild?

Was hat das mit Penguin zu tun?

Wie Johannes Beus in dem unten zu sehenden Interview mit Andreas Graap zurecht anmerkt, hat das Penguin Update von Google eine erstaunlich geringe Fehlerquote. Kaum eine Webseite die es negativ getroffen hat, hätte einer manuellen Qualitätsbewertung standgehalten. Die Erfolgsquote des Penguin Updates scheint kurioserweise ebenfalls nicht sehr hoch zu sein. Es gibt zahlreiche Webseiten, die das Update normalerweise definitiv hätte treffen müssen. Alles in allem doch recht ungewöhnlich für einen mathematischen Algorithmus!

Um den an jeder Ecke ineinander verzahnten Algorithmus von Webseiten zumindest immr wieder abzugleichen, benötigt Google nachweislich stimmende `Cross-Daten´ aus menschlicher Hand! Egal, ob nun direkt oder über die `Hintertür´ eingeflochten, ist bei den jüngsten Updates von Google (Panda, Penguin usw.) davon auszugehen, dass deren Auswirkungen – wie immer nun auch genau – zu einem Teil auch auf manuellen Ratings beruhen.

Negativ vom Penguin Update betroffenen Webseitenbetreiber wird teilweise geraten, ihr Linkprofil bzw. ihre Inhalte einfach so zu gestalten, dass sie aus dem `Penguin-Filter´ wieder herauskommen. „Wer zukünftig sauber arbeitet, der wird irgendwann auch wieder dort gelistet werden wo er vor dem Update stand„, lautet oftmals die Devise.

Meiner Meinung nach ist nicht auszuschließen, dass nicht wenige der negativ vom Penguin Update betroffenen Webseiten niemals wieder ihre alten Rankings erreichen werden. Wer vom Update betroffen ist, der muss damit rechnen, dass seine Seite – wie immer nun auch genau – manuell (gegen-)gecheckt wurde und trotz eines womöglich irgendwann sauberen Linkprofils immer einen Dämpfer behalten wird!

Johannes und Andreas diskutieren in ihrem Interview die Frage, ob Google zu `cheaten´ schwieriger geworden ist. Meiner Ansicht nach ist dieses definitiv der Fall. Google und Co. sind längst schon keine reine Algorithmus-Maschinen mehr, sondern werden immer häufiger auch von Menschen-Hand betrieben…

Weiterführende Informationen

Gretus

Sie befinden sind hier: Ist Google zu cheaten schwieriger geworden?

Kommentare zu diesem Beitrag:

  1. Sebastian Website sagt:

    Hallo Gretus,

    Schöner Artikel, der die Komplexität der aktuellen Lage auf den Punkt bringt.

    Das spannende ist ja gerade die Verknüpfung unterschiedlicher Datenpunkte und die Überlagerung mehrerer Algorithmen. Das ist es auch, was derzeit alle verwirrt, was aber m.E. noch heftiger werden wird. Google wertet immer feiner granulierte OnSite- und OffSite-Signale bei Websites aus, die zudem noch durch Quality Rater, Social Media Signale und Nutzersignale auf menschlicher Ebene abgesichert werden.

    Cheaten wird definitiv immer schwieriger, aber das macht ja auch langfristig keinen Spaß…

    Gruß,
    Sebastian

  2. Alex sagt:

    Hallo, verständlich dass nicht alle Aufgaben von Algorithmen zu lößen sind, dennoch finde ich es nicht gut wenn Seiten von Ratern bewertet werden…

  3. Michael Website sagt:

    Seht guter Artikel! Ich wusste gar nicht das Google manuell bewertet, war mir neu. Passt aber ins Profil. Über kurz oder lang werden die „Cheater“ sowieso immer effektiver. Dann muss man mit einem „menschlichen Gehirn“ dagegen steuern.

    • Gretus Website sagt:

      Hallo,

      direkt Webseiten bewerten machen sie angeblich nicht, sie nutzen Bewertungen jedoch um ihren Algorithmus anzupassen. Wo immer da genau der Unterschied liegt…

      Grüße

      Gretus

  4. seo-diaries Website sagt:

    Gute Beschreibung, Gretus. Die Sache ist ja gar nicht so einfach, denn ohne die menschlichen Prüfer würden die Google Ergebnisse sicher noch ganz anders aussehen. Doch das bedeutet noch lange nicht, dass sich alles ändert. Google versucht ja nur den Blickwinkel auszuweiten. Was es uns im Gegenzug etwas schwieriger macht. Wir wissen ja wie immer nicht, was Google sieht, denkt und macht 😉

  5. Marci Website sagt:

    Leute, wie ist das mit dem Algo-Update genau, bei neuen Seiten wenn die vom Update im April verschont wurden, greift das „in Echtzeit“ bei neuen Seiten oder erst dann wieder wenn das nächste Update kommt, oder heisst das das ich beim Linkaufbau nix falsch gemacht habe und auch beim nächsten Update kein großen Fall erwarten muss?

  6. Martin O. Hamann Website sagt:

    Eins muss ich dem Interviewer „Andreas Graap“ ja zugute halten: Er hat sich redlich bemüht, Johannes „auszuquetschen“, aber eher lässt sich ´ne Milka-Pausenkuh melken, als dass ´n SEO-Agentur Inhaber Geheimnisse ausplaudert!

  7. Peter Website sagt:

    Ich glaube nicht, dass Google da noch viele Rater drüberschauen lässt. Die verlassen sich nur auf den Algo. Die Masse der Webseiten, wir dürfen hier nicht nur Deutschland betrachten, ist einfach zu groß. Das ist ja auch ein großer Kostenfaktor.

  8. Peter sagt:

    Schöner Beitrag. Ich glaube, es besteht kein Zweifel, dass Google intelligenter wird.

  9. David Vielhuber Website sagt:

    Spannend, ob da wirklich Testpersonen am Werk waren; Letztendlich werden wir es nie endgültig erfahren. Trotzdem sind die Analysen von Sistrix und Konsorten sehr interessant!

  10. Seb@argutus Website sagt:

    Menschliche Rater haben zwar Vorteile, aber deren subjektive Meinung kann ja durchaus auch Seiten treffen, die qualitativ gar nicht im Keller sind. Frage mich auch, ob Webseiten, die dank Penguin so abgefallen sind, je wieder alte Rankings erreichen. bzw ob es dann überhaupt Sinn macht, gegenzusteuern…

  11. Sebastian Sötje Website sagt:

    Die Möglichkeit menschliche „Rater“ zu Rate zu ziehen finde ich recht interessant. Allerdings bleibt die Frage, ob eben diese darüber informiert werden, bzw. selbst darüber stolpern können, wenn ein erneuter Blick über das betroffene Projekt lohnenswert sein könnte. Grundsätzlich also eine tolle Sache, aber mir fehlt die Nachhaltigkeit. Ich selbst gebe auch hin und wieder eine schlechte Bewertung für dies oder das ab, überarbeite oder korrigiere diese aber sofort, sollte sich auf Grund meiner Kritik etwas verbessern. Genau das ist eigentlich das wichtigste. Die Kritik sollte etwas bewegen. Dies funktioniert aber nur, wenn die Hoffnung besteht, dass eine Änderung etwas ausmachen könnte.

Kommentieren

Loading Disqus Comments ...

Ihre Agentur noch nicht dabei?

Ihr Job noch nicht dabei?

Ihr Beitrag noch nicht dabei?