SISTRIX Toolbox
SISTRIX Toolbox

Mehr erfahren
AdWords, KMU, wir machen den Unterschied!
Mehr erfahren

Penguine u. Panda Update Checkliste

SEO  |  Gast  |  , 11:20 Uhr  |  33 Kommentare

Bei dem Penguine-Update haben wir es mit einer Algorithmusänderung zu tun, welche haupt-sächlich auf die Bewertung des Linkprofils abzielt. Zusammen mit dem auf Contentbewertung basierendem Panda-Update stellen diese beiden Änderungen ein sehr gutes Instrument dar, `einfach´ erkennbaren Linkgeschäften auf die Spur zu kommen und diese zu ahnden…

Da die beiden Algorithmusänderungen sowohl die Linkkäufer als auch die Linkverkäufer treffen sollten, besteht meine Checkliste auch aus einem Offpage- und einem Onpage-Teil. Ich habe die Checkliste eigentlich für mich selbst erstellt, fand es dann aber auch ganz interessant, sie hier in einem Gastartikel zu veröffentlichen. Folgende Liste basiert auf meinen persönlichen Erfahrungen, welche ich versucht habe durch mehrere Webrecherchen zu untermauern und zu erweitern:

Offpage Analyse

Werkzeuge – Auffinden der Linkquellen:

  • Google Webmastertools
  • Eigene Listen mit Inboundlinks
  • Linkresearchtools (guter und schneller Überblick, in jeder Nische anwendbar)
  • Andere SEO Tools wenn vorhanden
  • Brain 2.0 (sollte jeder haben)

1. Auswahlkriterien für problematische Inbound-Links:

  • Shorthead Moneykeyword-Linktexte
  • Mehrwort Moneykeyword-Linktexte
  • Zweiwort Compound-Linktext
  • Werblicher Compound-Linktext

– z.B. Handys bei xyz.de kaufen, die besten schuhe gibts bei xyz.de

  • Bei Keyworddomains auch Brandlinktexte
  • Sitewide Links aus Footer und Sidebars
  • Gleiche und sehr ähnliche IP Adressen der Quelldomains
  • Gleiche Besitzer
  • Gleiche und sehr ähnliche Impressen (auch Bilder-Impressen)

Die üblichen Verdächtigen sucht man am besten zuerst mit den obigen Kriterien. Vor allem Moneykeyword-Linktexte im Shorthead Bereich (Einwort-Linktexte), aber auch Linktexte mit mehr Wörtern, die auf das Moneykeyword oder Phrase zugeschnitten sind, haben meist einen manipulativen Touch.

Genauso sollte man auch gleich nach Linknetzwerken suchen, billige Netzwerke haben meist sehr ähnliche oder gleiche IPs und/oder auch gleiche Besitzer und Impressen. Links aus solch einfachen Netzwerken sollte man auf jeden Fall abbauen. Ein schlechter Link würde z.B. aus einem Linknetzerk mit gleichen IPs und Besitzern kommen und einen manipulativ auffälligen Linktext haben.

2. Bewertungskriterien für Contentlinks/Artikellinks

  • Themenrelevanz des Artikels, sowohl für Quellseite als auch für Zielseite
  • Qualität des Artikels, inhaltlich und sprachlich, sollte auf einem höheren Niveau liegen (keine Open-End SEO-Texte)
  • Sind in dem Artikel auch redaktionelle und relevante Links, zu anderen Webseiten vorhanden?

– Wenn redaktionelle Artikel outbound Links besitzen, dann meist zu mehreren Verschiedenen zielen

  • Position des eigenen Links:

– In sehr vielen redaktionellen Artikeln werden die Links in einem Block neben oder am Ende des Textes, oder nach einem relevanten Absatz positioniert
– Wie werden die Links in dem Großteil der anderen Artikel platziert?
– Bei Intext-Links – wie sinnvoll sind diese gestaltet

3. Bewertungkriterien für Quelldomains – Linkgeber der Contentlinks

  • Relevanz der Quelldomain

– Wie oft hat sich die Domain generell mit dem Thema der Zieldomain beschäftigt (je mehr desto besser)

  • Besitzt die Quelldomain Rankings im Themenbereich der Zieldomain?

– Rankings in der Zielnische lassen auf Relevanz schließen

  • Wie sehen die anderen outbound Links auf der Domain aus – (nach Punkt 1 und 2)
  • Wie qualitativ sind die inbound Links der Quelldomain – (nach Punkt 1 und 2)
  • Gibt es outbound Links zu anderen Webseiten in der Zielniesche (Hub)?
  • Gibt es inbound Links aus der Zielnische zur Quelldomain (Authorität)?

Quelldomains mit durchgehend Low-Content und vielen outbound Links zu verschiedensten Themen-gebieten, eben dem typischen Farmcharakter sollten sehr kritisch betrachtet werden. Wenn zu den Link-Eigenschaften noch mehr negative Punkte hinzukommen, dann sollte man diese Links abbauen. In der Regel ist dies auch der Fall.

4. Links die generell abgebaut gehören

  • Quelldomain ist nur zu einem sehr geringen Teil oder gar nich im Google Index
  • Der Artikel des Links, ist nicht im Google Index
  • Artikelkontext und Quelldomain passen thematisch nicht zur Zieldomain
  • Links aus offensichtlichen Linknetzwerken

5. Empfehlenswerte Offpage Maßnahmen zusammengefasst

  • Shorthead Moneylinktexte reduzieren und diversifizieren ggf. in Brand-Linktexte umwandeln
  • Compound Linktexte je nach Menge mehr diversifizieren ggf. in Brand-Linktexte umwandeln
  • Mehr Brandlinks aus den, im Konkurrenzumfeld üblichen Linkquellen, aufbauen
  • Sitewide Links auf Domain-Themenrelevanz prüfen und wenig relevante reduzieren
  • Money- und Compoundlinktexte von sinnvollen Sitewidelinks auf Brand umstellen
  • IP Adressen diversifizieren durch Abbau und Neuaufbau
  • Domainbesitzer diversifizieren durch Abbau und Neuaufbau

Bei Content-Links:

  • Artikeltexte auf Qualität Prüfen – Low Content aussortieren / abbauen
  • Content Links aus relevanten Artikeln und Quelldomains nachbauen
  • Bei Neuaufbau verstärkt Brandlinktexte nutzen
  • Linkpositionen auf Sinnvolligkeit prüfen
  • Themenrelevanz der Artikel prüfen

– Der Artikel sollte sich mit dem Content des Linkziels beschäftigen (Ein `Ach übrigens wo wir gerade dabei sind…´ – gilt nicht!)

  • Relevanz der Quelldomain prüfen
  • Outboundlinks der Domain prüfen

– Ist mein Artikel der einzige zu dem Thema?

Onpage Analyse – eigene Domain

  • Hat die Domain ausgehende Links zu nicht relevanten Webseiten?
  • Hat die Domain ausgehende Links zu offensichtlichen Low Content Webseiten?
  • Ist auf der Domain verhälltnissmäßig viel externe Werbung eingebunden?
  • Weist die Domain viel internen und/oder externen Double Content auf?
  • Ist ein Linkblock im Footer vorhanden und weist dieser viele Moneykeyword-Linktexte auf?
  • Gibt es einen internen oder externen Blogbereich?
  • Wie ist die Qualität des Contents im Blogbereich?
  • Wie wird aus dem Blogbereich auf die anderen Unterseiten verlinkt – evtl. viele Moneykeyword Links?
  • Gibt es Unterseiten die besonders starkt intern verlinkt sind und wie sind diese Verlinkt?

Sehr oft wird die interne Verlinkung einfach vernachlässigt, schließlich findet dies ja schon ansatzweise über die Menüstruktur statt. Immer häufiger wird die interne Verlinkung aber auch schlicht übertrieben. Anstatt sinnvoll aus den News oder Blogartikeln auf die Angebote und Unterseiten zu verlinken, werden Beiträge speziell für den internen Link erstellt. Meistens sind solche Beiträge wenig qualitativ und dienen offensichtlich dem internen Pushen einer Unterseite. Nimmt dieses Vorgehen größere Ausmaße an (Interne Überoptimierung), kann es dabei auch zu Problemen mit den beiden schwarzweißen Tierchen kommen.

Genauso kommt es im Rahmen von Link-/Artikeltausch Aktionen oft dazu, dass auf der eigenen Domain irgendwelche ausgehenden Links existieren, die so gar nicht zum eigenen Thema passen wollen. Sehr oft sind solche Links in den Kategorien und Blogbereichen von Onlineshops zu finden, die sich zu einem Artikeltausch haben hinreißen lassen, aber keine anderen eigenen Webseiten besitzen. Jeder der einen halbwegs sichtbaren Shop betreibt bekommt früher oder später die Anfrage zu einem Artikeltausch. Die Linkakquisiteure nehmen sich gern Shopbetreiber vor, weil diese ja ein sehr großes Interesse an Links und besseren Rankings haben und damit recht einfach überzeugt werden können. In der Regel ist das Linkziel dann von Natur aus nicht themenrelevant für den Shop, denn kein Shopbetreiber würde auch nur annähernd seine Konkurrenz anlinken.

Das Ergebnis ist ein outbound Link zu einer nicht relevanten Webseite aus einem Text der auch wenig themenrelevanz enthält. Und wie sehen den üblichen einfachen Links der kleinen Linkverkäufer aus? Genau So! Damit sendet man eigentlich ein recht eindeutiges Signal eines manipulativen Links.

Onpage Maßnahmen zusammengefasst:

  • Ausgehende Links zu nicht relevanten und Low-Content Seiten entfernen
  • Wenn nötig externe Werbung gesundschrumpfen
  • Internen und externen Double Content reduzieren
  • Wenn nötig Links im Footer ausdünnen, gesundschrumpfen
  • Interne Moneylinks im Blogbereich und auf Unterseiten umwandeln, Verlinkungen redaktioneller gestalten
  • Contentqualität im Blogbereich verbessern
  • Besonders stark intern angelinkte Unterseiten auf Überoptimierung prüfen
Maxim Grübel, seopinion.de
Ich bin Blogger bei seOpinion.de. Angefagen habe ich als freier Online Redakteur im Bereich Webdesign. Am meisten hat mich damals die Suchmaschinenoptimierung begeistert, welche seit 2006 meinen Altag bestimmt. Vor allem die Optimierung von Online-Shops habe ich mir zum Spezialgebiet gemacht. Ich versuche bei meiner Arbeit immer einen Schritt um die Ecke zu denken. Auch wenn sich SEO an mathematischen Berechnungen orientiert, so funktioniert sie dennoch nicht einfach nur nach Schema F.
Sie befinden sind hier: Penguine u. Panda Update Checkliste

Kommentare zu diesem Beitrag:

  1. Christian Kunz Website sagt:

    Schöne Zusammenstellung. Mit dieser Liste sollte man den „bösen“ Links auf die Schliche kommen können. Vor allem aber bietet sich die Checkliste für den zukünftigen Linkaufbau an. Und: Es empfiehlt sich immer, eine eigene Linkliste zu pflegen, die man mit den Listen aus Linktools abgleichen kann.

    Gruß,
    Christian

  2. Axel sagt:

    Guter Artikel, Maxim!

    Nur eine Frage: Wo bekomme ich dieses Programm „Brain 2.0“ her? Ist das Freeware oder kosten-pflichtig? Wie ausfallsicher ist es? Und welche Aufgaben kann man eigentlich damit abdecken? 😉

    Schönes Wochenende!

  3. Andreas Website sagt:

    Langsam vermisse ich die Zeiten, wo man einfach eine Webseite „gemacht“ hat um Menschen zu informieren oder für Hobbygleichgesinnte eine Plattform präsentieren wollte.

    Dennoch danke für die kompakte Übersicht.

  4. Marcus sagt:

    Hallo Maxim,

    heisst das auch dass ich einen Link zu meiner Seite z.B. auf solch einer Seite entfernen lassen sollte: perfectselect.de

    Grüße,
    Marcus

    • Maxim Website sagt:

      Ohne deinen Link von der Seite zu kennen kann ich das jetzt nicht so leicht einschätzen.

      perfectselect.de ist eigentlich von der Basis her wohl ein besserer Webkatalog für Shops. Der Link den jeder Shop bekommt ist auch nur eine Schlaltfläche, gibt also keinen Linktext weiter. Wenn der Link also aus dem Katalogbereich kommt, seh ich da eigentlich kein Problem.

      Falls du allerdings einen Link aus deren Blogbereich hast, müsste man sich anschauen wie der Link und das Drumherum dort aussieht.

      Grüße

      Maxim

  5. Andreas Website sagt:

    Herrje. Brain mal vom Englischen übersetzen 😉

  6. Hartmut Website sagt:

    Ich musste gerade feststellen, dass ich mich nicht mehr zu einem Studium einschreiben kann 😉

  7. Ulli Website sagt:

    Die beste Zusammenstellung zum Thema, die ich bisher entdecken konnte. Dafür einfach mal DANKE.

  8. DerNouskrat Website sagt:

    Super Artikel/Checklist/Ermahnung. Nur eines ist mir nicht ganz klar, vor allem darum, weil ich noch keine einheitliche, stringente und wirklich überzeugende Meinung/einen Beleg (ja SEO, haha) hören konnte. Die Überoptimierung der internen Verlinkung. Meinst du wirklich, das geht. Ein als Money-KW klassifizierter Linktext innerhalb der eigenen Seite, die dann darum abgestraft wird? Und wenn ja, warum?

    • Maxim Website sagt:

      Ich wollte jetzt nicht den Anschein erwecken, dass eine Seite „nur“ wegen einer internen Überoptimierung abgestarft werden kann. Aber es dürfte doch ein weiterer Tropfen sein.

      So wie immer im SEO, kann ein Problem / Abstrafung / Abwertung. nicht auf einen Faktor zurückgeführt werden. Meistens ist es ja so, dass etliche kleine und größere Fehler die Lunte zu einem großen Pulverfass bilden.

      Ich bin überzeugt, dass Interne Überoptimierung „immernoch“ möglich ist. Früher war es ja z.B. Textüberoptimierung, Keyword-Tag, Description-Tag usw. Wenn Keywordstuffing ein Kriterium für internes Übertreiben ist, dann muss es die Verlinkung logischerweise auch sein. Man kann ja nicht, Keywordstuffing als Abwertungskriterium nutzen, aber die teilweise exterm übertriebenen internen Moneylinks außen vor lassen :)

      Es ist natürlich schwierig, einen wahscheinlich kleinen Faktor nachzuweisen, da die Auswirkungen wohl sehr schwach sein dürften. Trotzdem bin ich der Meinung, dass man, beim Versuch eine Webseite aus dem Panda/Penguine Würgegriff zu holen, jedes Detail prüfen sollte.

      Wenn du magst, können wir das gern in Skype ausdiskutieren :)

      Grüße

      Maxim

  9. andre sagt:

    Danke für die gute liste einer der besten listen ! hat mir geholfen und denke vielen anderen Anfängern wird sie auch helfen. Auch wenn mir das Penguin update zu schaffen macht :)

  10. Raphael Website sagt:

    Die Liste ist ja schön und gut, aber das Problem ist dann auch immer die Umsetzung. In den meisten Fällen hat man keine Möglichkeit wirklich die Linktexte zu ändern oder Links überhaupt zu entfernen. Zumindest beim letzten Punkt hilft ja nun das neue Google Tool, das leider in Zeiten wo jeder Link schädlich sein kann, bitter benötigt wird…

  11. Ralph Website sagt:

    Guter Beitrag, allerdings ist so alles zusammen schwer umsetzbar. Es bleibt ein Spiel mit dem Feuer. Und ein guter Link muss nicht ein guter Link bleiben. Dazu müsste ich die volle Kontrolle über die Linkgeberseite haben. Das mit der Werbelastigkeit halte ich für ein Märchen. Hab eigener Erfahrung nach da noch nichts Negatives festgestellt. Habe Webprojekte mit 2-3 Popunders, was arg überreizt ist, diese stehen super in den Serps.

  12. Daniel sagt:

    Wenn ich mir den Artikel so anschaue, dann ist es schon enorm, wie sich der Googlealgo in den letzten 6 Monaten verändert hat. Konnte man vor einem halben Jahr SEO im Prinzip nach Schema F gestalten, ist es heute ganz anders…

  13. Korrupt Website sagt:

    Das ist definitiv eine schöne Übersicht, wie man natürliche Content- und Backlinkstrukturen erzeugt, und weil es letzten Endes immer um den Nutzen für den User gehen soll, stimme ich an sich durchgehend zu, allein, mich macht spätestens bei dem „gilt nicht!“ stutzig, wie und was Google da alles messen und *verstehen* soll. Mir ist klar, dass Google da weit vorn dabei ist, aber wenn ich mir die einzelnen Punkte ansehe und überlege, wie das Google sinnvoll a) messen, b) interpretieren, c) gewichten und dann d) netzweit ranken soll, dann habe ich das Gefühl, da ist vieles dabei, was an sich empfehlenswert ist, wo ich dennoch aber glaube, dass Google das schlicht nicht zuverlässig einschätzen kann.

    Konkret gefragt: glaubst du, dass ich da falschliege? Oder gibt es tatsächlich einigermaßen belastbare Erfahrungen dahingehend, dass Google die hier beschriebenen *Zusammenhänge* tatsächlich erfassen und gewichten kann?

    • Maxim Website sagt:

      Hey :) Danke für deinen Comment. Der Kommentar

      Der Artikel sollte sich mit dem Content des Linkziels beschäftigen (Ein `Ach übrigens wo wir gerade dabei sind…´ – gilt nicht!)

      Sollte bildlich darstellen, wie in vielen SEO-Linkkauftexten die Verweise eingefügt werden. Oft Möchte jemand einen Link von Seite X, liefert aber keinen neuen Artikel – Ein Link aus Bestandscontent also. Meistens sind die Texte aber nicht wirklich passend zum Linkziel und so wird dann an einem halbwegs passenden Punkt, innerhalb des Textes, eine kleiner Satz „für“ diesen Link eingefügt.

      Da diese Vorgehensweise sehr oft bei vielen Linkvermietungen ect. genutzt wird kann man früher oder später ein Muster erkennen. Wenn man diese Muster in einen Prüfalgo packt und gezielt danach sucht, wird man auch sicher schnell fündig. Ich denke das bedarf noch nichtmal großer Programmierkunst.

      Es ist tatsächlich so wie du sagst, es ist recht schwierig „echte“ Beweise zu finden, wie Google diese ganzen Punkte abprüft, da es nur sehr wenige Tests gibt und die sind auch noch gar nicht analysereif. Zumal es auch schwierig sein dürfte wirklich gute Tests zu dem Thema zu machen, weil auch noch die History des Konkurrenzumfeldes mit hineinspielt. Es könnte also gut sein, das man je nach Themengebiet andere Ergebnisse bekommt.

      Wenn man sich die ganzen Erfahrungsberichte, Analysen und Diskusionen anschaut, dann werden doch mehrere Muster sichtbar, welche Webseiten Probleme mit den Tierchen bekommen. Eigentlich finden sich bei jedem, der auch wirklich seit Pinguine abgestraft wurde, mehrere Leichen im Keller.

      Wenn man sich anschaut welche Seiten in einen der duzenden Filter geraten, oder welche Seiten von Panda oder Penguine betroffen waren, dann bin ich mir recht sicher das Google diese Punkte durchaus prüfen und mit einander in Verbindung bringen kann.

      Ein schönes Beispiel sind „kleinere“ Nischen im Produktbereich, die ab der 2.Seite, von Amazon/Ebay/Idealo überschwemmt sind. Meiner Meinung nach liegt das schlicht daran, dass die „Mittelschicht“ hier, seit Penguine, einfach weggebrochen ist. Die Links, die die Rankings in diesem Zwischenraum gehalten haben wurden zum Großteil entwertet und übrig bleiben einige überlebende Contentlinks und viele schwache Freewarelinks. Das Ergebnis, die Relevanz und damit die Rankings, vor allem viele Longtailrakings, werden eingebüßt und von der Oberschicht (Amazon) und Co besetzt, da die Unterschicht (sehr Schwache Seiten) nicht genug Power hat diese Lücke zu füllen. Ich kann mir sehr gut vorstellen, dass diese extremen SERP Dominanzen so entstehen, logisch wäre es.

      Wenn man sich dann anschaut welche Seiten da weggebrochen sind und Sie nach diesen Punkten Prüft, dann haben die Kandidaten oft offensichtliche Manipulationen im Offpagebereich und nicht selten auch im Onpagebereich. Dazu müsste dann noch ein Welleneffekt kommen, wie beim beliebten Tetris, wenn die untere Reihe wegbricht, dann rutscht alles einen Level tiefer.

      Grüße

      Maxim

      • Korrupt Website sagt:

        Thx für AW – *dass* viel passiert, will ich auch gar nicht bestreiten, im Gegenteil. Das mit den weggebrochenen Resultaten sehe ich auch im Moneybereich, wo manches relevante Keyword ab Seite 3 nichts vernünftiges mehr an Ergebnissen aufweisen kann.

        Ack auch zu den Mustern, ich bin, wie gesagt, halt immer ein wenig skeptisch, wenn sich diese als „schwer algorithmisierbar“ darstellen. Um beim konkreten Beispiel zu bleiben – mich würde nicht wundern, wenn ein nach zwei Wochen nachgepflegter Contentlink eben deswegen verdächtig wird, weil er eben nach zwei Wochen nachgepflegt wurde. Das „Ach übrigens…“ scheint mir da vollkommen wurst, aber dass auf einer Seite mit ansonsten nicht dynamischen und nicht nacheditierten Contents dann auf einmal ein weiterer Link auftaucht, der bei den letzten X Spiderbesuchen nicht da war – *das* scheint mir leichter feststellbar und leichter als verdächtig zu diagnostizieren als die an den haaren herbeigezogene Themenrelevanz.

        Für letztere braucht man ein wirkliches Verständnis von Quell- und Zielseite und der Verbindung der Themen, und insbesondere eine Möglichkeit, false positives zu vermeiden (denn warum sollte ich nicht eine thematisch anders gelagerte Seite nicht verlinken, wenn sie beispielsweise von einem Kumpel gemacht wurde, um den es im text ging und dessen neueste Aktivität ich da nachtragen will?), für ersteres muss ich nur nachschauen, wie lange nach Veröffentlichung da auf einmal noch ein Link in einem „undynamischen Seitenbereich“ erscheint, der vorher nicht da war. Ersteres scheint mir kaum sinnvoll „algorithmisierbar“, letzteres auf´s Einfachste.

      • Maxim Website sagt:

        Ja da hast du schon recht, nachgepflegte Links sind viel einfacher feststellbar, wenn es nicht zur sonstigen Normalität der Seite gehört. Bezüglich der Themenrelevanz, ich habe dazu auch bei mir im Blog noch was geschrieben. Natürlich kann man zwei dem Anschein nach nicht relevante Seiten mit einander Verknüpfen wenn man eine Gemeinsamkeit findet.

        Worauf ich eigentlich mit dem Beispiel hinaus wollte war aber „nicht auf nachgepflegte Links“, sondern auf die Contentrelevanz.

        Eben wie du sagst, du schreibst über deinen Kumpel und verlinkst seine Webseite und erwähnst eine neue Aktivität von ihm, dann ist dein Kumpel die Verbindung. Wenn du aber z.B. einen Artikel über das Bearbeiten eines Blumenbeetes schreibst und dann kommt plötzlich ein:

        „Ah da wir gerade dabei sind, die tollen Fliesen von xyz.de kann man auch gut direkt auf Erde verlegen“

        Das würde ich schon als problematisch bezeichnen. Themenrelevanz ist schon ein schwammiges Wort, vielleicht würde Contentrelevanz besser passen. Wenn ich jetzt also einen Artikel über das anlegen von schönen Gartenwegen schreibe und dort dann die tollen Fliesen erwähne, dann ist das schon logischer. Das meine ich mit „Der Artikel sollte sich mit dem Angebot/Content der Zielseite beschäftigen“.

        Ich glaube in Zukunft wird es wichtig sein diese Zusammenhänge herzustellen, eben „relevante“ Inhalte schaffen :) Eigentlich kann man auch von einem Hundeblog, auf einen Strikzubehör-Shop verlinken, wenn man eben einen Zusammenhang schafft.

        Klar kann man nicht alles glauben was Google meint bereits tun zu können und gesunde Skepsis sollte, meiner Meinung nach, jeder SEO haben. Aber wenn man sich anschaut welche Links so unter die Räder kommen, dann sind es doch meistens die „quick and dirty“ Links aus Low-Content, Endlostexten und eben nicht relevanten Domains und Artikeln.

        Eine nicht relevante Domain ist in meinen Augen, nicht der Hudneblog, der aus einem Artikel über Hundepullies auf den Strick-Shop verlinkt und sich sonst mit seinen Hundethemen beschäftigt. Es ist der Hundeblog, der von Spanien-Reisen über Fahrräder bis hinzu Pflanzenkübeln, auf alles Mögliche verlinkt und dafür vieleicht noch nichtmal neue Inhalte erstellt.

        Ich glaub das wäre eine coole Diskusion für die SEOkomm, wenn du da bist :)

  14. Daniel Website sagt:

    Hallo und guten Morgen, das ist eine schöne Auflistung und Zusammenstellung. Es benötigt aber eine lange Zeit um die schlechten Links zu finden. Es gibt ja Seiten mit über 100000 links, das wird es schwierig. Ich werde meine gleich mal durchsuchen.

    Beste Grüße und vielen Dank

    Daniel aus Magdeburg

  15. […] Vielen Dank an die Kollegen von SEO-united.de, wo eine noch umfangreichere Checklist zu finden ist […]

  16. Andy sagt:

    Hi, vielen Dank für deine Meinung bzw. den Artikel. Ich finde man sollte Google mit seinem neuen Linktool, nicht nutzen. Wenn man sich mal genauere Gedanken dazu macht, wird man feststellen wie gut Google die Webmaster trainiert hat, genau das zu tun was Google will. Wenn man solche Links meldet bei denen man nicht will das diese nicht gewertet werden, was wird Google wohl mit den Link tun? Mhh nicht schwer zu beantworten, oder?

    Weiter denke ich das „schwache Link“ zu überbewertet werdem, soll heissen „Weshalb jetzt vermehrt starke Backlinks aufbauen“ ? Wo bleibt denn hier der Natürlichkeits-Faktor? Es gibt hier nämlich keinen mehr aus meiner Sicht. Denn welche natürliche Seite (wobei ich der Meinung bin, die gibt es schon lange nicht mehr) hat denn vermehrt starke Links? Wenn eine Seite anfängt bekannt zu werden, wird diese Seite mit Sicherheit nicht von Anfang an nur starke Links erhalten. Sondern erst viele schwache Links und dann die starken Links. Oder was meint Ihr? Also ist es doch ganz natürlich wenn eine Seite viele schwache und später ein paar stärkere Links erhält.

    Und was ich festgestellt habe, schaut verallgemeinert nicht immer! Es ist ganz wichtig die Metriken in der jeweiligen Branche/Nische miteinander zu vergleichen. Denn es gibt Nischen, da ranken Webseiten oben das sieht das Offpage Bild ganz anders aus als bei anderen Nischen. Ich denke das sollte auch jedes Mal mit bedacht werden.

    • Maxim Website sagt:

      Hi Andy, so sehe ich das auch.

      Es ging mir hier aber weniger um „starke“ Links sondern um „relevante“ Links. Ausschlieslich auf starke Links zu setzen ist wiedermal genau das Gegenteil was seit Jahren in der SEO-Szene „leise“ geprädigt wird. Nämlich das Beachten der Linkentwicklung der eigenen Nische, das nutzen von Verschiedenen Linkquellen.

      Der schwache Link ist nicht unbedingt schlecht, solange er ins Bild passt. Der Link, ob stark oder schwach, sollte seine „Sinnvolligkeit“, seinen Grund, wiederspiegeln. Man würde ja normalerweise auch keinen Banner für Kunstdünger, auf einer Modeseite schalten.

      Das eine frische Seite, erstmal schwächere Links generiert und je nach Qualität immer bessere Links dazukommen (sollten) ist logisch und würde auf die meisten neuen Seiten zutreffen, die nicht mit Großen Kampagnen und Budegts gestartet werden. Die die es sich leisten Können Starten auch mal Webseiten mit „sofortigen“ Top-Links, weil sie meistens eine entsprechendes Angebot haben und eine entsprechende Medienpräsenz herstellen.

      Was das Disavow Tool angeht, ich bin da auch ähnlicher Ansicht, aber nicht dass man es „nicht“ nutzen sollte, sondern dass es besser nicht „Jeder“ nutzen sollte. Die unerfahrenen Webmaster, werden die Linkquellen der SEOs an Google weitergeben und die Möglichkeiten zur Linkgenerierung noch weiter vermindern. Dazu kommt noch der allseits berüchtigte und ständig mitlaufende Kollateralschaden, der Bei solchen „Petzereien“ immer dabei ist. Denn des öfteren triffts es auch Unschuldige.

      Grüße

      Maxim

  17. Andy sagt:

    Hallo Maxim, Ich zitiere mal:

    Der schwache Link ist nicht unbedingt schlecht, solange er ins Bild passt. Der Link, ob stark oder schwach, sollte seine “Sinnvolligkeit”, seinen Grund, wiederspiegeln. Man würde ja normalerweise auch keinen Banner für Kunstdünger, auf einer Modeseite schalten

    O.K. Ist schlau wie du das siehst, man kann es aber auch von der anderen Seite her sehen. Es ist doch auch Quatsch immer auf die Themenrevelanz zu achten, wenn du das mit dem Banner ansprechen wolltest. Denn sieh es doch mal so, wenn Du um die Ecke zum Metzger gehst, hat der schon einmal zu Dir gesagt „Hallo Maxim, schau mal eine Straße weiter gibt es aber auch noch einen guten Metzger, willst Du nicht vielleicht dort hin gehen?“ Wird er sicher noch nicht zu Dir gesagt haben. So sehe ich das eben auch mit den Backlinks im Internet. Welcher normale Mensch verlinkt den seinen Mitbewerber im gleichen Umfeld. Ich denke das wird organisch niemand tun und erst nicht freiwillig. Also ist das doch auch wieder unnatürlich :-) Oder was meinst Du dazu?

    Wenn DU etwas anderes damit gemeint hast, dann revediere ich *g*

    • Maxim Website sagt:

      Hm :) Stimmt natürlich, keiner wird seine direkte Konkurrenz wissentlich verlinken und ein Metzger würde dich meistens auch nicht zu einem andere Metzger schicken, obwohl dies auch durchaus möglich wäre. Aber man muss ja auch sehen, dass es nicht „nur“ Wettbewerber gibt. Wenn dem so wäre, würde wohl das gesamte Linkgefüge des Internets entweder zusammenbrechen oder nur noch aus Satellitenseiten bestehen.

      Auch sollte man bei der Forschung nach der Themenrelevanz, meiner Meinung nach, nicht immer nur direkte Relevanz berücksichtigen, so wie du sie mit dem Metzgerbeispiel meinst. Nimm mal das Beispiel weiter oben, mit dem Hundeblog, ich finde ein durchaus gutes Beispiel für „Relevanz“. Man muss Relevanz ja nicht strikt sehen, sonst wäre die relevanteste Empfehlung, für einen Metzger, ja die eines anderen Metzgers. Erstmal wäre die Wahrscheinlichkeit dafür ja sehr gering und tatsächlich wäre die Empfehlung des Bäckers von neben an, für den Metzger, sehr viel relevanter.

      Relevant ist also eine Empfehlung die einem die richtigen Kunden schickt, oder einen bei der richtigen Zielgruppe bekannter macht. Zwar stellt sich das in Verbindung mit dem Google Algo wohl nicht so einfach dar, als im Offline-Leben, wo z.B. auch eine Bank den Metzger gegenüber, durch eine kleine Plakatanzeige, bewerben würde, dennoch ist für mich diese Sichtweise diejenige, die zum einen am meisten Spielraum für Relevanz lässt und zum anderen die größte Sicherheit für den Linkaufbau bietet.

      Demnach wäre ein Kunstdünger-Banner auf einer Modeseite, meiner Meinung nach, nicht relevant. Wenn das Künstdüngerbanner, aber auf einer Webseite über Gartenbekleidung und Handwerkerbekleidung, um bei „Mode“ zu bleiben, stehen würde, dann wäre es passender, genauso wie auch ein Link aus einer entsprechened „relevanten“ Liste :)

      Relevanz hat viele Facetten und teilweise kann man die unmöglichsten Themengebiete auf sinnvolle Weise mit einander verknüpfen.

      Grüße

      Maxim

  18. Daniel Website sagt:

    Mit Pinguinen und Pandabären hat uns Big G ja ganz schöne Eier ins Nest gelegt. Aber stellt Euch vor, es gäbe nicht öfter mal was neues 😉 Wie traurig wäre das denn? Bedanke mich für die vielen Tipps und Tricks in Deiner Checkliste. Viele Grüße aus Wien, Daniel

  19. […] Nichts ist beständiger als die Änderung, und kaum glaubt man sich als Fachfremder einmal eingelesen zu haben, gibt es schon wieder etwas Neues […]

  20. Der Linkaufbau: Verlinken Sie sich – online wie offline | ONELOCAL Blog sagt:

    […] Das Pinguin- wird vom Panda-Update unterstützt, das darauf angelegt ist, den Website-Content zu bewerten […]

  21. Mirko Website sagt:

    Für mich sehen die Updates immer mehr als ein „CUT“ aus. Bislang musste ich an der Taktik nicht sonderlich viel ändern um gescheit zu ranken. Aber wir werden sehen was die Zukunft bringen wird.

  22. […] Denn diese wurden meist für den reinen SEO-Backlinkaufbau missbraucht, weswegen der Suchmaschinenriese derlei Verweise nun deutlich neutraler oder sogar äußerst kritisch betrachtet […]

Kommentieren

Loading Disqus Comments ...

Ihre Agentur noch nicht dabei?

Ihr Job noch nicht dabei?

Ihr Beitrag noch nicht dabei?