OnPage.org
SEO DIVER

Mehr erfahren
Brands, KMU, wir machen den Unterschied!
Mehr erfahren

Studenten bauen Google-Algo nach

Google  |   |  , 15:23 Uhr  |  25 Kommentare

GoogleWenn es darum geht, den für das Ranking der Webseiten in den Suchergebnissen verantwortlichen Algorithmus der Suchmaschine Google zu entschlüsseln, gibt es zwei unterschiedliche Heransgehensweisen. Experten wie Rand Fishkin von SEOmoz sind bislang zumeist den Weg gegangen, sich bestimmte Übereinstimmungen der auf den vorderen Plätzen bei Google gelisteten Webseiten herauszupicken, zu analysieren, bei welchen anderen Webseiten diese Eigenschaften ebenfalls auftauschen, um abschließend daraus dann einen irgendwie gearteten Zusammenhang herzustellen…

Mitglieder der Northwestern Network Group haben letztes Jahr einen anderen Weg gewählt. Anstatt die Ergebnisse von Google lediglich zu analysieren, haben sie eine eigene Suchmaschine entworfen und deren Rankingkriterien soweit angepasst, dass die Suchergebnisse denen von Google möglichst ähnlich sind.

Ted Ives von coconutheadphones.com hat sich kürzlich die Mühe gemacht, das unter `How to Improve Your Google Ranking: Myths and Reality´ (PDF) veröffentlichte Ergebnis des Versuches die Suche Google zu imitieren im Form einer Tabelle zusammenzufassen:

Umfasst der Algorithmus von Google angeblich mehr als 200 Bewertungskriterien, war es den Mitgliedern der Northwestern Network Group mit Hilfe von nur 17 Rankingfaktoren möglich, in immerhin 80% der trainierten Fälle 8 der in den Top 10 von Google gelisteten Webseiten ebenfalls auszugeben.

Auffällig ist, dass fast alle der 17 Faktoren lediglich das Vorkommen des Suchwortes (Title, H1 usw.) untersuchen bzw. dass es mit derart einfachen Kriterien überhaupt möglich war, den Algorithmus von Google so genau nachzubilden.

Dass wahrscheinlich genau die bei Anwendung lediglich einer Handvoll Rankingfaktoren fehlenden 20% der Übereinstimmung mit den Ergebnissen von Google deren letztendliche Qualität ausmachen, außen vor gelassen, funktioniert Google wahrscheinlich einfacher als so mancher denkt. Der Google-Algoritmus mag zwar insgesamt 200 Faktoren beinhalten, bei 90% der Suchanfragen aber womöglich kommt es nur auf einige wenige davon an…

Gretus

Sie befinden sind hier: Studenten bauen Google-Algo nach

Kommentare zu diesem Beitrag:

  1. Christoph C. Cemper Website sagt:

    Hi,

    wirklich sehr spannender Post, v.a. das englische Original und das PDF-Paper.

    Was dort klar hervorgeht ist, dass Sie den Linkgraphen überhaupt nicht berücksichtigt haben, aber noch viel wichtiger, dass Sie Ihre Keywordbasis für nicht-kommerzielle Keywords aus dem Bereichen Linux commands, chemical elements, und music and astronomy terms definiert haben.

    Ähem – dafür macht wohl kaum ein Mensch SEO, ergo sind die Testfelder noch sehr „natürlich“, sprich nicht linklastig.

    Meines Erachtens also ein guter Weg um die relevanten Onpage SEO-Faktoren einzugrenzen, in der Realtität bei Finanz, Versicherung etc. wäre das Experiment vermutlich gescheitert oder nicht so eindeutig…

    Vg aus Wien
    Christoph C. Cemper

  2. Malte Landwehr Website sagt:

    Wenn man als Datenbasis die Top 100 von Google nimmt ist es natürlich einfacher auf Basis von OnPage Kriterien die Top 10 zu bestimmen. Das hat aber nichts damit zu tun, wie diese 100 Dokumente ursprünglich mal aus mehreren Milliarden ausgewählt worden sind.

    Ich will nicht sagen, dass das eine schlechte Studie war, aber das Fazit das einige Leute daraus ziehen (u.a. auch du Gretus) ist imho absolut übertrieben. Dieses SEO-Geblubber von 200 Ranking-Faktoren zieht ja auch diverse Spam-Filter mit ein. Viele davon greifen vermutlich aber schon vor der Auswahl der Top 100.

    • Gretus Website sagt:

      Hallo Malte,

      wenn ich mir z.B. die Backlink einiger bei Google gut gerankter Seiten etwas genauer angucke, dann haben die noch nie auch nur einen Filter gesehen 😀

      Grüße

      Gretus

  3. alter-texter Website sagt:

    Das sehe ich ähnlich wie meine beiden Vorkommentatoren. Vielleicht hat man sogar mehr oder weniger unbewusst Keywords rausgesucht, bei denen der nachgebaute Algo besonders gut funktionierte. Bei einer breiteren Streuung der Keywörter wäre das Ergebnis wohl deutlich anders ausgefallen. Und das wäre für eine Veröffentlichung sicher nicht besonders vorteilhaft gewesen…

  4. frank Website sagt:

    Hallo, für die Grundlage der Onpage eine schöne Studie, der Anch von 0,95 kann nicht passen müsste wohl eher was mit 0,2 stehen. Der Punkt wurde leider nicht näher erläutert.

    Was mich verwundert ist das der PR noch eine so große Rolle spielen soll, das hätte ich so nicht erwartet. Wir sind im Jahr 2011 der PR war fast tot, nur noch für eingehende Links als Anhaltspunkt wichtig.

  5. Gregor Website sagt:

    Warum outgoing Links überhaupt eine Gewichtung für das Ranking haben sollen, ist mir bis heute ein Rätsel. Wenn ich den Besucher so lange wie möglich auf meiner Webseite halten möchte, macht das doch gar keinen Sinn.

    • Malte Landwehr Website sagt:

      Es wurden auch keine incoming Links bewertet (oder wenn dann nur ein sehr kleiner Ausschnitt). Und die machen sehr viel Sinn!

  6. Stefan Website sagt:

    Die haben sehr wohl den Linkgraphen berücksichtigt, zumindest auf eine gewisse Art und Weise: Das Vorkommen der Keywords im Host hat ja scheinbar einen großen Einfluss. Bei Google kommt dieser enorme Einfluss über die indirekte Wirkung der Linktexte, da ja jeder auf diese Seite z.B. mit „SEO United“, „seo-united.de“ oder so verlinkt. Die Jungs sparen sich das in dieser Studie und machen aus der indirekten Wirkung eine direkte. Das funktioniert dort wunderbar, wo es keinen speziellen Linkaufbau gegeben hat – so wie das Christoph oben schon ansprach.

    Ansonsten möchte ich auf meinen Vortrag von der Campixx 2010 verweisen – dort habe ich ein ähnliches Experiment gemacht, wobei ich nur den Linkgraphen (und davon auch nur einen sehr kleinen Teil) benutzt habe. Ich kam damals auf 70% Übereinstimmung. Was lernen wir daraus? Eine gut aussehende Annäherung sagt überhaupt nichts darüber aus, wie genau der Test-Algorithmus Google nachbildet.

    • Malte Landwehr Website sagt:

      Deine Argumentation mit den Links würde aber NUR Linktexte natürlicher Links betreffen. Da steckt nicht drin wo sie herkommen, wie viele es sind, usw.

      • Stefan Website sagt:

        Genau das sollte ja mein Argument sein: Bei Themen mit wenig Konkurrenz gibt es fast nur natürliche Links, die sehr häufig den Domainnamen enthalten. Das sieht dann bei einer unbedarften Analyse so aus, als hätte das Keyword im Domainnamen einen großen Einfluss im Algorithmus.

        Wirklich interessant ist aber die Korrelation mit den Outgoing Links. Das kann ich mir nur so erklären, dass im „harmlosen“ Umfeld munter mit Keywords rausverlinkt wird, ohne über SEO nachzudenken.

  7. DoFollowBlogger Website sagt:

    Erkenntnis des Tages: Hoher PR + smartes Keyword-Stuffing, mehr brauchst net um die Top10 bei low-competive Nischen zu kommen.

    xD

  8. Theodor N. Website sagt:

    So leicht kann man den Google also betimmt nicht nachbauen. Vielleicht für einzelne leichte Keys, aber nicht für die breite Masse. Wenn das so einfach wäre, hätte die Konkurrenz keinen so schweren Stand.

  9. Sven sagt:

    Die Gewichtung für das Alter einer Domain ist meiner Meinung nach viel wertvoller als dargestellt. Komplexer wird es jedoch bei den zusammenhängenden Werten, die es zu entschlüsseln gilt.

  10. Max Website sagt:

    Ich sehe es ein wenig wie Malte: Die Top 100 muss man erstmal erreichen. Und der Algorithmus der einen da hinbringt ist entscheidend.

  11. DoFollowBlogger Website sagt:

    Also wenn ich mir Google als sinnlich wahrnehmbares Wesen ausmalen würde, dann wäre

    – die Indexierung von Webdokumenten das Herz
    – die anschließende Ranking-Berechnung per Algorithmus das Gehirn
    – und das Web-Suchsystem und Ausgabe mit kurzer Reaktionszeit die Seele

    Demnach haben diese Studenten bei Google wohl gerade sowas wie ne Gehirnspiegelung durchgeführt. Waren das vielleicht also Medizin-Studis? lol

  12. chris Website sagt:

    Ein SEO aus England (kein Namen) hat mal gesagt, dass alle Meta (außer Title) Angaben nutzlos sind, bzw. eher schaden können.

    Jetzt steht hier in der Studie das sogar der Keywordtag noch 0,10 hat kaum zu glauben, da kann doch was nicht passen.

  13. […] Nun haben es offenbar Studenten geschafft ziemlich nahe an die Wahrheit des Algorithmus heranzukommen […]

  14. Laura Website sagt:

    So einfach wird es dann doch nicht sein. Die Top10 Liste annähernd nachzubauen, ist eine Sache, aber akkurat wird es erst, wenn das selbe Ergebnis auch auf die nächsten 100 oder mehr zustimmen. Bis dahin ist es vielleicht ein nettes Experiment, aber von einem nachbauen kann hier noch keine Rede sein.

  15. Booker Website sagt:

    @chris Das passt trotzdem. 0,10 heisst ja nicht Wirkung von 0,10 sondern lediglich Korrelation von 0,10. Die naheliegende Interpretation ist: wer sich um Meta-Angaben kümmert, kümmert sich um den Rest der Website besser als der Durchschnitt und rankt deswegen höher.

  16. […] Da stellt sich die Frage, warum man Google nicht einfach so lange nachbaut, bis die Ergebnisse stimmen […]

  17. Frank Website sagt:

    Aber ich dachte, dass der Algo von google alle paar Wochen überarbeitet wird um sich den neuen Gegebenheiten anzupassen Wahrscheinlich betreffen diese Überarbeitungen aber nur die relativ unwichtigen 20% an Rankingfaktoren, die im Beitrag angesprochen wurden. Die Hauptfaktoren scheinen über die Jahre hin konstant zu bleiben.

  18. Thomas sagt:

    Mit dem Algorythmus ist schon sehr interessant, aber ehrlich gesagt stecken die Suchmaschinen immer noch in den Kinderschuhen. Wirklich gute Ergebnisse liefert hier keine. Und wenn sich so manche Seitenbetreiber nach vorne kaufen, wie es bei Adwords so ist, dann hat das Ganze keinen Sinn. Da spielt die Qualität keine Rolle, Kunden die viel in Adwords investieren werden bevorzugt. Aber so ist es ja überall, die Politiker kann man ja auch kaufen, wenn man genug Geld und Einfluss hat. Schade das die Qualität immer mehr darunter leidet.

  19. wantha Website sagt:

    Sehr interessant, nur leider wird sich der Algorithmus ständig ändern, demzufolge wird es relativ schwierig sein immer auf dem aktuellen Stand zu bleiben. Trotzdem interessant, wenn dieser Algorithmus öffentlich wird, können die Google Aktivisten sich was neues einfallen lassen, um die Bewertungskreterien zu ändern. Sonst könnte doch jeder diesen Nachbau benutzen für das beste Ranking.

  20. […] Doch Studenten ist es gelungen den Google Algorithmus nachzubauen und konnten dabei zeigen, dass man das Ranking nur mit wenigen Faktoren weitgehend simulieren kann […]

  21. Steffen Müller Website sagt:

    Stört sich eigentlich niemand dran, dass der Pagerank (!) das primäre Kriterium ist? Ich meine, selbst wenn er wohl nicht mehr sooo heiß gegessen wird wie vor ein paar Jahren – der Pagerank ist per Definition die Bewertung der Relevanz einer Seite von Google.

    Die Studie hat also praktisch herausgefunden, dass die Relevanz einer Seite laut Google mit der Relevanz einer Seite laut Google korreliert. Wow, das überrascht mich zutiefst. Betrachtet man das in Kombination mit dem passend gewählten Keywordsegment und der Top 100 Beschränkung, ist das ganze gar nicht mehr so interessant wie sich der Titel anhört. Aber verkaufen können sich die Autoren der Studie, das muss man ihnen lassen.

Kommentieren

Loading Disqus Comments ...

Ihre Agentur noch nicht dabei?

Ihr Job noch nicht dabei?

Ihr Beitrag noch nicht dabei?