SISTRIX Toolbox
SISTRIX Toolbox

Mehr erfahren
AdWords, KMU, wir machen den Unterschied!
Mehr erfahren

Fakten zum MayDay-Update

SEO  |   |  , 16:19 Uhr  |  30 Kommentare

MayDay-UpdateSeit einigen Tagen kursieren immer wieder Gerüchte zu einem so genannten MayDay-Update durch die Blogs und Foren dieser Google-Welt. Bei dem Update soll es sich um eine Anpassung der Betrachtung von Longtail-Keywords, vorwiegend Kombinationen aus drei oder mehr Begriffen, handeln. Domains die negativ vom Update betroffen sind, weisen einen Trafficeinbruch von bis zu 50% im angesprochenen Longtail auf. Mit diesem Beitrag möchte ich einige Fakten zum Update zusammentragen…

Was ist passiert?

Die ersten Auswirkungen des Updates sind sowohl im deutschen, als auch im englischen Index seit dem 27. April zu erkennen. Seitdem  geht es mit dem Traffic auf Longtail-Keywords stetig bergab. Bei einigen Domains hat sich der Traffic auf einem neuen, niedrigerem Niveau eingependelt, bei anderen geht er aber nach wie vor nach unten. Bei keiner der uns bekannten Domains ist das Trafficniveau bislang auf das alte Niveau zurückgekehrt. Dieses deutet, dass es sich nicht um einen Test, sondern ein tatsächliches und nachhaltiges Update handelt.

Analyse der Ereignisse

Für die folgende Analyse habe ich einfach einmal drei Domains herausgesucht, bei denen man den Trafficeinbruch sehr gut erkennen kann. Der erste Peak beim „dt. Webverzeichnis“ ist ein Serverausfall und steht in keinem Zusammenhang mit dem Update. Gut zu sehen ist, dass es keine Vorboten für das Update gibt, der Trafficeinbruch kommt plötzlich, heftig und nachhaltig.



Die drei gezeigten Domains stehen in keinem direkten Zusammenhang. So gibt es keine Verlinkung untereinander, verschiedene Whois-Daten und sogar unterschiedliche Provider. Die Projekte befinden sich allesamt schon längere Zeit im Index und konnten sich dort einen gewissen Trust verdienen, es handelt sich also nicht um kurzfristig angelegte Spam-Projekte. Dennoch gibt es eine auffällige Gemeinsamkeit: Die Absprungrate ist bei allen betroffenen Domains extrem hoch. Mir ist keine Domain mit einer niedrigen Absprungrate bekannt, welche von dem Update betroffen wäre.

Was heißt das nun?

Google scheint einen Algorithmus zur Bewertung der Absprungrate speziell bei Longtail-Keywords entwickelt zu haben und bringt diesen global und automatisch zur Anwendung. Es geht sogar so weit, dass bei Domains mit unterschiedlichen Absprungraten in unterschiedlichen Bereichen (Beispiel: Forum und statischer Content auf einem Projekt) nur diejenigen Bereiche betroffen sind, die eine hohe Absprungrate haben. Einen genauen Grenzwert, bzw. eine kritische Absprungrate scheint es aber nicht zu geben. Ich würde hier auch ungern eine Zahl nennen wollen, da noch nichts darüber bekannt ist, wie Google die Absprungrate für diese Bewertung eigentlich misst.

Bedeutung für die Zukunft?

Da dieser Post sicherlich erst einmal genug Spielraum für Spekulationen bietet, möchte ich die Auswirkungen auf die Zukunft der Suchmaschinenoptimierung bzw. konkrete Tipps zur Verbesserung der Absprungrate in einem seperaten Post liefern.

Constantin

Sie befinden sind hier: Fakten zum MayDay-Update

Kommentare zu diesem Beitrag:

  1. Friday sagt:

    Fakten, Fakten, Fakten…

  2. Markus Bauer Website sagt:

    Wenn das stimmt (und es sieht in der Tat so aus), dass der Algo die Absprungrate beim Longtail ab sofort sogar selektiv berücksichtigt, dann wird diese Anpassung für nicht wenige Websites zu wirklich gravierenden Einbrüchen führen – und das auch nicht nur temporär. Tipps für Gegenmaßnahmen werden also Hochkonjunktur haben.

  3. hamburger Website sagt:

    Wir haben ebenfalls eine Seite die betroffen ist und auch wir glauben, dass die Bounce-Rate hier erheblichen Einfluss hat. Allerdings haben wir auch den Verdacht, dass es sich bei diesem neuen Penalty (?) auch um die Url handeln könnte, die bei uns aus dem Titel des Dokuments generiert wurde und daher oft sehr lang ist. Unsere Nachforschungen haben zumindest ergeben, dass Matt Cutts diesen Faktor als zu „Noisy“ und daher ungeeignet bezeichnet hat, aber wer ist schon M.C…

    Siehe auch hier…

  4. Constantin sagt:

    Hallo Markus,

    allerdings muss man auch immer bedenken, dass der Traffic ingesamt deswegen ja nicht weniger ist. Das heißt: Irgendwer bekommt ihn jetzt zusätzlich ab. Im schlimmsten Fall ist dieser aber so gleichmäßig verteilt, dass man es überhaupt nicht messen kann. Die Gegenprobe bleibt also aus.

    Liebe Grüße,
    Constantin

  5. Gretus Website sagt:

    Hallo,

    im Longtailbereich will der Suchende meistens sehr konkret etwas wissen oder etwas machen, z.B. ein Produkt kaufen. Wer seine Seiten nicht explizit darauf ausrichtet und z.B. unter `Produkt xy kaufen´ keine Kaufoption anbietet oder unter `Person xy Frisur´ nicht genau der Anfrage entsprechende Inhalte bietet, hier idealerweise wahrscheinlich Bilder, wird es schwer haben.

    Im Prinzip gibt es keinen richtigen Longtail mehr. Mit steigender Anzahl von Webseiten und immer genaueren Suchanfragen muss man immer größere Teile seines Traffics als gezielt ansehen und ihn dementsprechend bedienen können…

    Grüße

    Gretus

  6. Markus Bauer Website sagt:

    Hallo Constantin,

    ja, richtig, den Vorbehalt gab’s bei Peer (am Dienstag) ja auch schon zu lesen. Aber es ist doch wie immer: Wer sich bei Algo-Änderungen den neuen Gegebenheiten anpasst (vulgo: sich an die neuen Google-Regeln hält), profitiert. Und wer alles lässt, wie es ist, kann (muss aber nicht – ist schon richtig) gegenüber dem bisherigen Status Quo verlieren. Wobei Traffic ohne Conversion in der Tat wenig wert ist.

    LG, Markus

  7. Website Boosting Website sagt:

    Hm, kann es sein, dass es da hauptsächlich Thin-Affiliate-Sites erwischt, die ohne großen Backlinkaufbau im Longtail fischen. Meist mit automatisch generierten Texten? Oder donnert es auch bei „echten“ Sites?

    Seiten mit guten Infos und guter Usability haben ja das Bounce-Problem nicht, sondern nur Seiten, die auf den ersten Blick schon beim Betreten als unnütz erkennbar sind. Sites mit derartigen Absprungraten (wie in den obigen Grafiken gezeigt) haben kein SEO- sondern ein Usabilityproblem. Oder sie werden bisher einfach nur bei den falschen Longtails angezeigt. Scheinbar passt der Inhalt ja nicht zu dem, was die Mehrheit gesucht hat oder? Insofern wäre das keine Penalty, sondern eine „Präzisierung“ des Bewertungsalgos.

    Hat jemand diese Beobachtungen auch für Sites gemacht, die def. kein GA einsetzen?

  8. Constantin sagt:

    Hallo Mario,

    genau, die Herabsetzung – ob nun abgestraft oder regeranked, scheint vollautomatisch zu sein. Sehe es ähnlich, dass es vielmehr um ein Usabilityproblem geht. Also eher ein nachlaufender Kontrollfaktor. Was mittelfristig nicht passt, wird abgeschossen. Ob es in der Mehrzahl Affiliate-Seiten sind weiß ich nicht, würde ich aber nicht unbedingt vermuten. Es donnert aber überall, also auch bei echten Seiten mit richtig und echtem Trust.

    Es sind definitiv auch Seiten betroffen, die kein Analytics einsetzen.

    Liebe Grüße,
    Constantin

  9. Sebastian Website sagt:

    Mögliche Ansätze um dieser Entwicklung entgegenzutreten:

    1) SERP-CTR mit Page-Title und Meta-Description optimieren, ergo an die Nutzerintention in Relation zum Seiten-Content anpassen, damit v.a. diejenigen klicken, die ein Interesse an der Website haben könnten. Man verliert ggf. ein paar weniger qualifizierte Short-Head Besucher, dafür erholt sich die Absprungrate wieder.

    2) Usability-Optimierung: Headlines an die Nutzerintention anpassen, Einleitungstexte keyword-relevanter gestalten, Usability durch leicht scanbare Hervorhebungen der relevanten Begriffe optimieren

    3) Bei Seiten mit viel schwachem UGC: Redaktionelle Maßnahmen, die die Qualität des Contents und die Keyword-Relevanz nachhaltig erhöhen

    4) Traffic optimieren: Page-Title, Content und interne Link-Texte im Hinblick auf gut konvertierende Keywords überarbeiten und als Konsequenz „Longtailiger“ ausrichten > auch hier ggf. Verzicht auf nicht-konvertierenden Traffic bei gleichzeitiger Verringerung der Absprungrate (in Analogie dazu wäre sicherlich auch eine Anpassung der externen Link-Texte an die veränderten Verhältnisse sinnvoll!)

    Genereller Vorbehalt:

    Ich kann mir (wie auch etliche andere Autoren) nicht vorstellen, dass die Absprungrate einen so heftigen Einfluss auf das Ranking nimmt, wie oben angedeutet, oder dass Google gar einzelne Verzeichnisse aufgrund anderer Absprungraten anderes gewichtet. Der Grund: Wegen der Möglichkeit sich über ein „Human Grid“ einfach mal 90.000 Leute zu engagieren, die die Absprungrate in schwindelerregende Höhe treiben, dürfte die Gewichtung der Absprungrate als Faktor doch eher sehr gering sein.

    Weiterführende Überlegungen sowie Links zu entsprechenden Patent-Schriften aller großen Suchmaschinen zu diesem Thema bei Humoah.com: http://bit.ly/Z1C9

    Auch der in diesem Zusammenhang häufig geäußerte Aspekt des „Phrase Based Indexing“, worüber Google in der Lage sein soll, Mehrwort-Phrasen ohne „Stemming“ in ihrer natürlichen Satzbaufolge auf Dokumenten zu finden, diese so zu indexieren und als exakteres, Nutzer-relevantes Ergebnis auszuliefern greift wohl nur zum Teil (wie auch ggf. in einem minimalen Umfang die „Bounce Rate“):

    Mehr dazu ebenfalls bei Humoah.com: http://bit.ly/ca3rM0

  10. Website Boosting Website sagt:

    @Constantin: Danke für die Info. Hab ich mir fast gedacht (GA unabhängig). Da ich aber auf keinem Projekt GA einsetze und bei mir der Traffic fast überall spürbar gestiegen ist, wollte ich sicherheitshalber mal nachfragen. Wäre ja aber auch echt böse gewesen 😉

    @Sebastian: Ich denke nicht, dass Google so einfach vorgeht und immer nur einen Faktor berücksichtigt. Vermutlich ist eine (zu) hohe Bouncerate nur ein Anfangsindikator, der weitere Prüfungen auslöst. Oder die Gewichtungsschraube bei der BR ist einfach etwas angezogen worden. Dass nur ein Faktor alleine ausschlaggebend ist, halte ich eher für unwahrscheinlich. Da wären die Kollateralschäden viel zu hoch. Rechnerisch aufwendigere Spamdetection kann auch nicht für jede Domain gemacht werden. Dem werden nur Sites unterzogen, die von anderen Kennzahlen her „auffällig“ sind bzw. deren Werte verdächtig hoch sind. Daher vermute ich, dass auch hier verschiedene Dinge zusammen kommen. Wenn G. es nur an der BR fest machen würde, würde es zu erst Wikipedia und ähnliche Info-Sites wegschmettern 😉 Da ruft ja fast jeder nur eine Seite auf und geht dann zu Tante G. zurück…

  11. Sebastian Website sagt:

    @Website Boosting: Genau so sehe ich das auch. Faktoren wie BR stellen selbstverständlich nur eines unter vielen Algo-Signalen dar und vermutlich ist die BR auch ein eher nachgelagertes Signal (aus m.E. offensichtlichen Gründen) . MFA-Sites und der ganze Scraper-Schund sowie Domains mit händisch schlecht zusammengeklautem Content und mieser Usability weisen i.d.R. auch ein fragwürdiges Backlink-Profil auf, eines der verläßlichsten Signale für manipulierte Rankings. Geht hier die Flagge hoch, dann wird ggf. ein nachgelagertes Signal wie die BR zur weiteren Bewertung herangezogen, wobei auch das selbstverständlich zu 99% vollautomatisiert ablaufen dürfte – alles andere wäre quantitativ nicht machbar. Außer dem BL-Profil können aber selbstverständlich auch andere Signale wie z.B. zu viel DC oder massenhafte Generierung von leeren „Token“ Sites dazu führen, dass die BR ansteigt und in der Folge auch als Faktor zu greifen beginnt. Stimme Dir daher bzgl. der „Präzisierung“ des Algorithmus in jedem Fall zu…!

  12. Simon Website sagt:

    Mich würde mal interessieren, auf welche Weise Google die Bounce Rate ermitteln soll.

    Eine so offensichtliche Verknüpfung von Google Analytics Daten mit den Suchergebnissen wäre sehr ungewöhnlich und außerdem ist diese Methode alleine deshalb nicht geeignet, weil die Anzahl der GA verwendenden Websites (trotz hoher Verbreitung) einfach zu klein ist.
    Aber das scheint ja auch sowieso nicht zuzutreffen.

    Auch jeder anderen Methode zur Nutzung der Bounce Rate als Rankingfaktor steht das gleiche Problem gegenüber, dass auch bei dem Thema CTR als Rankingfaktor häufig diskutiert wurde: Es ist einfach leicht zu manipulieren.

    Ich bin gespannt auf weitere Analysen, mich würde allerdings nicht wundern, wenn sich noch was anderes als Ursache herausstellen würde. Schließlich sagt die Feststellung bzgl. der Bounce Rate eigentlich nur aus, dass der Long Tail Algorithmus besser geworden ist und Google passendere Ergebnisse liefert.

  13. Website Boosting Website sagt:

    Mich würde mal interessieren, auf welche Weise Google die Bounce Rate ermitteln soll.

    @Simon Das stelle ich mir nicht schwer vor. Abfrage von IP xyz, Browserfingerprint abc (und ggf. Toolbar-ID), klickt auf URL 1 in einer SERP und 5 Sek. später kommt IP xyz, Browserfinderprint abc wieder auf die selber SERP zurück und klickt woanders.

    Alternativ/ergänzend: Via Toolbar-ID kann statistisch sogar der Weggang von einer Einzelseite auf eine andere Domain getrackt werden. Der User muss also gar nicht zu Google bouncen, er kann auch weitergeleitet werden, weggklicken oder schlicht auf einer Adsense-Seite auf Adwords klicken.

    Meinst Du, das würde G. nicht auswerten 😉 ?

  14. Simon Website sagt:

    @WebsiteBoosting: Natürlich wertet Google das aus – das steht außer Frage 😉 Aber zum Beispiel der Bounce zurück zur Website ist auch keine sehr vielversprechende Metrik. Viele Benutzer öffnen z.B. beim Suchen neue Tabs und auch bei einem Rücksprung werden die SERPS häufig nicht neu, sondern aus dem Browsercache geladen.

    Und auch wenn es da Möglichkeiten geben sollte, finde ich die Aussagekraft solcher Bewertungssysteme eher zweifelhaft. Das gilt im Übrigen auch für Toolbar Daten, denn die lassen sich natürlich auch relativ einfach manipulieren.

    In jedem Fall wäre ein Update dieser Größe, dass zum ersten Mal ganz offensichtlich Nutzerverhalten in einem solchen Ausmaß aktiv ins Ranking einschließt ein richtungsweisendes Ereignis was v.a. für SEOs große Bedeutung haben könnte.

  15. Robert Website sagt:

    Wenn das nur ein Resultat der Ergebnisse aus der Bounce Rate ist, dann kann man sich doch eigentlich nur beruhigt zurücklehnen. Denn stimmte bislang die Bounce Rate nicht, dann konnte man mit dem Longtail auch keinen Blumentopf gewinnen, sondern im besten Fall die Trafficzahlen nach oben pushen.

    In meinen Augen ist das nur ein Schritt zu besseren Suchergebnissen. Sollte Deine Vermutung also stimmen dann gilt ab sofort eben nur noch stärker das Motto der wertvollen Inhalte.

  16. hubba sagt:

    alsoich habe dir darauf hin mal meine eigene kleine seite angeguckt. die datengrundlage ist zwar nicht gerade repräsentativ, aber seit anfang mei kommt es bei mir auch wirklich sehr gut hin, das je höher die absprungrate ist um so geringer die besucher am folgenden tag waren und umgedreht. abwarten was passiert…

  17. […] SEO-United will aus den Statistiken erkennen, dass die Absprungrate (Bounce Rate) eine Rolle spielt […]

  18. Jan Website sagt:

    Bisher halte ich die Angaben noch nicht für gesichert und habe selbst einige Seiten, die eine hohe Absprungrate aufweisen – da dort eine Infos gesucht und gefunden wird – Traffikeinbruch kann ich aber nicht erkennen. Würde eher auf etwas wie wenige Backlinks und (!) hohe Bouncerate tippen.

    Wenn überhaupt, derzeit testet Google zuviel, da von einem Trend nach 3 Wochen zu sprechen halte ich für etwas vorschnell.

  19. Balu sagt:

    Um hier mal ein Gegenbeispiel zu nennen: Eines unserer Projekte ist eine Affiliate Website mit einer Bounce Rate von knapp 90% und wir können absolut keinen Traffic-Verlust im Longtail Bereich feststellen. Falls die BR in diesem Zusammenhang also tatsächlich irgendeine Rolle spielen sollte, wäre dies nur im Zusammenspiel mit anderen Faktoren möglich.

  20. Maxim Website sagt:

    Mahlzeit zusammen,

    Ich stelle seit dem „Update“ fest, dass sich meine Seiten im Logtail etwas verbessert haben, was wahrscheinlich auf die Kleine Bouncerate ( 35% ) zurück zu führen ist. Eine Seite ist mit GA getrackt, die andere mit einem „intern“ Tool. Es scheint keine Unterschiede zwischen GA getrackten und nicht GA getrackten Seiten zu geben. Geringe Bouncerate = Kein Trafficabfall.

    Das heist aber nicht, das die BR aleinig einen Faktor darstellt, dabin ich mit Website Boosting einer Meinung. Ich glaube auch eher, dass diese entweder der Auslöser für eine tiefere Prüfung sein kann, oder zum Schluss noch herangezogen wird.

    Eine Rolle wird die BR aber spielen, ist ja auch offensichtlich und logisch wenn man sich die beispiele so anschaut. So wie es Gretus schon gesagt hat, wer einen Longtail benutzt hat sehr genaue Vorstellungen davon was er sucht. Wenn er dies auf einer Seite, die ihm Google ausspuckt nicht findet, oder nur unzureichend, dann geht er wieder.

    Bei Foren, welche Fragen beantworten, könnte eine hohe Bouncerate schon in der Natur der Sache liegen. Bei Webverzeichnissen, wie im Beispiel, wird dieses Update wohl den größten Einbruch zur Folge haben, da der Besucher diese in 90% aller Fälle wieder verlassen wird, weil er sich bei seiner Suche eher auf Google verlässt.

    Auch beim Preisvergleich kann man das mit dem Userverhalten logisch erklären. Preisvergleich-Portale gibt es mittlerweile wie Sand am Meer, bei jeder x-beliebigen Kleinigkeit wird der User mit ihnen bombardiert und ist darüber recht wenig erfreut, was mir eine kleine umfrage in meinem Umfeld ein bischen zeigt. Natürlich hat jeder seinen Favoriten, aber unter den „Großen“ wie idealo und Co. Die kleinen PVs ziehen da ganz klar den Kürzeren.

    Grüße
    Maxim

  21. Thomas sagt:

    Ich denke, dass hat mit Sicherheit mit den Absprungraten zu tun, also zu wenig passendem Inhalt auf das Longtailkeword. IMHO

  22. Jannis Website sagt:

    Ich hatte hier zuerst den gleichen Einwand wie Simon: Woher soll Google denn wissen, wie hoch die Bouncerate auf einer Seite ist?

    Die Antwort von websiteboosting klingt für mich auch nur auf den ersten Blick einleuchtend: die Verbreitung der Google Toolbar ist genauso ungewiss, wie die Heuristiken die sich aus Webseiten gewinnen lassen, welche GA verwenden. Natürlich könnte man noch viele andere Faktoren berücksichtien: Aufbau der Textblöcke, Einsatz von STD-Software etc.

    Mitlerweile sagen hier aber auch einige, dass es bei Ihnen keine Einbrüche gegeben haben soll. Auch wir konnten auf unserer Longtail Seite – zumindest keinen signifikanten Einbruch feststellen.

    Gibt es denn mitlerweile weitere Indikatoren, dass die Longtail+Bouncerate Hypothese stimmt?

  23. Maxim sagt:

    Ich denke es gibt keine „Longtail+Bouncerate Hypothese“ im eigentlichen Sinne. Ich habe eher die Vermutung, dass es dort bestimmt einen Zusammenhang gibt und die Bouncerate dabei eine kleine Rolle spielt, entweder als Anstoß für intensivere Prüfungen oder als Variable zur entgültigen Entscheidung.

    Wobei ich das erstere eher Ausschließe. Sicherlich mit Toolbar, GA, SIDs und Cookies kann man schon die BR einer seite messen, allerdings recht ungenau. Aufgrund dieser Ungenauigkeit ist die BR, einer Maschine wohl kaum Grund genug um diese auf eine „Checkliste zu setzen“.

    Beim Letzteren bin ich mir schon eher sicher. Wenn eine Seite bereits mit wenig und/oder miderwärtigem Content auftritt, dazu auch noch einige schlechte Offpage Faktoren kommen, sie also bereits aufgefallen ist. Dann kann ich mir vorstellen, dass die BR ( auch wenn ungenau ) als kleines Sandkörnchen zum schluss auf den haufen geworfen wird und wenn die Wippe dann kippt heist es pech gehabt.

    Grüße
    Maxim

  24. fiacyberz Website sagt:

    Bei einem unser Projekte ist der Traffic die letzten Tage wieder gekommen und strebt wieder die Vorwerte an.
    Die BounceRate kann hier definitiv ausgeschlossen werden.

  25. Bernhard sagt:

    Ähnlich wie Maxim sehe ich das auch. Habe das auch bei einem Projekt beobachten können.

  26. Johannes M. Website sagt:

    Warum soll die Absprungrate gerade für Long-Tails so interessant sein. Ich frage mich auch, warum alle von Rückgangen seit dem Mai-Update sprechen. Irgendwelche Seiten müssen doch schließlich nachgerutscht sein?!

  27. Markus Bauer Website sagt:

    Auch wenn sich die Wogen zum Thema MayDay-Update schon wieder etwas geglättet haben – SEL hat (nach „Rücksprache“ mit Matt Cutts) heute versucht, noch etwas mehr Licht ins Dunkel zu bringen…

  28. 5 Backlink Checker Tools - karlkratz.de sagt:

    […] Fakten zum Mayday Update von Constantin von SEO-united.de […]

  29. […] In der Dezember-Ausgabe befasst sich das SEO-/SEM-Magazin mit einem Rück- und Ausblick rund um das Thema Suchmaschinenoptimierung und Suchmaschinenmarketing […]

  30. […] Zukunft noch viele den Weg hierhin finden werden, musste ich mich ja fragen, nachdem ich von diesen Plänen Googles gelesen habe. Bis anhin war es mein erklärtes Ziel, meinen Blog mit ausgewählten Themen in […]

Kommentieren

Loading Disqus Comments ...

Ihre Agentur noch nicht dabei?

Ihr Job noch nicht dabei?

Ihr Beitrag noch nicht dabei?