SISTRIX Toolbox
SISTRIX Toolbox

Mehr erfahren
AdWords, KMU, wir machen den Unterschied!
Mehr erfahren

Sollte Google mehr manuell eingreifen?

Google  |   |  , 14:44 Uhr  |  21 Kommentare

GoogleSchaut man sich die Suchergebnisse von Google etwas genauer an, kann man manchmal nur die Hände über den Kopf zusammenschlagen. Die Ergebnisse von Google sind zwar definitiv besser als die anderer Suchmaschinen, in vielen, vielen Einzelfällen aber, scheint der Algorithmus zur Relevanzbewertung von Webseiten immer noch zu versagen…

Ohne auf einzelne Fälle konkret einzugehen, scheint es trotz aller Bemühungen seitens der Betreiber von Google Webspam zu bekämpfen, immer noch möglich, eine vom Inhalt her vergleichsweise schwache Webseite durch das Setzen einer hohen Anzahl auch minderwertiger Backlinks selbst unter hochfrequentierten Suchwörtern weit nach vorne zu bringen. Immer wieder identische Linktexte, keine themenrelevante Verlinkung oder hauptsächlich Links aus Footern, Kommentaren usw., alles das scheinen immer noch keine Gründe zu sein, die den Algorithmus zur Spamerkennung bei Google nachhaltig aufhorchen lassen.

Die Betreiber von Google greifen nach eigenen Angaben wenn überhaupt nur äußerst selten manuell in die Ergebnisse ein. Anstatt die Millionen täglich neu entstehender Spamseiten händisch zu bekämpfen, versuchen sie Algorithmen zu entwickeln, welche Spamseiten anhand gemeinsamer Charakteristika erkennen und sie dann zusammen abwerten.

Die algorithmische Bekämpfung von Webspam hat sowohl Vor- als Nachteile. In der Praxis ist es oftmals so, dass die Algorithmen von Google den Machenschaften von Spammern weit hinterherhinken. Ist endlich ein Algorithmus entwickelt, haben die Spammer bereits wieder eine neue Methode gefunden, wie sie Google überlisten können. Der größte Vorteil der algorithmischen Bewertung liegt wiederum in der Warung einer gewissen Form von Objektivität. Bevor Mitarbeiter z.B. in die Bredouille kommen, Webseiten ihnen möglicherweise bekannter Seitenbetreiber händisch abwerten zu müssen, ist es besser hierfür eine seitenübergreifende mathematische Formel zu entwickeln.

Das subjektive Empfinden der Betreiber der in den Suchergebnissen von Google gelisteten Webseiten leidet unter der Prämisse Googles, immer alles algorithmisch lösen zu wollen. Google gibt selbst zu, dass es fast bei jeder Änderung ihres Algorithmus immer auch Kollateralschäden, also Webseiten gibt, die eigentlich grundlos vom Algorithmus erfasst und abgestraft wurden. Selbst bei diesen Seiten greift Google zumeist nicht manuell ein, stellt also auch hier die Wahrung der Objektivität vor das Schicksal des Einzelnen. Darüber hinaus ist es als Betreiber einer auf Qualität achtenden Webseite natürlich auch frustrierend, wenn offensichtlich viel schlechtere Seiten in den Suchergebnissen weit vor einem liegen.

In Zeiten immer neuer Spam-Methoden drängt sich meiner Meinung nach die Frage auf, ob Google nicht doch auch vermehrt manuell in die Ergebnisse eingreifen sollte? Jeder natürlich nach klaren Richtlinien gemachter Eingriff würde die Ergebnisse sofort verbessern, natürlich nur um einen winzig kleinen Bruchteil, aber immerhin! Wäre es für alle Beteiligten nicht besser, die gewollte Ojektivität manchmal einfach außen vor zu lassen, Serp-Schmarotzer also sofort zu verbannen und die Seiten von Bekannten meinetwegen auch als `Kollateralschaden´ oben stehen zu lassen?

Ich als Nutzer von Google möchte natürlich objektive Suchergebnisse, aber möchte ich das um jeden Preis? Würde ich mich als Nutzer womöglich nicht viel wohler fühlen, wenn ich hinter der Suchmaschine Google nicht nur die Informationsaufbereitung eines mathematischen Algorithmus, sondern das individuelle Handeln natürlich auch fehlbarer Menschen wüsste?

Die Antwort auf diese Frage könnte mir niemals eine Maschine liefern. Was denkt Ihr, sollte Google mehr auch manuell in die Suchergebnisse eingreifen? Ist ein von Menschen gestützter Algorithmus vielleicht am Ende sogar fairer als das unentwegte Suchen nach immer neuen Formeln?

Sollte Google manuell in die Ergebnisse eingreifen?

  • Schwer zu sagen, wenn nur im äußersten Notfall (37%, 53 Votes)
  • Ja, Google muss mehr auch manuell eingreifen (36%, 52 Votes)
  • Nein, manuelle Eingriffe müssen vermieden werden (28%, 40 Votes)

Total Voters: 145

Loading ... Loading ...

Gretus

P.S.: Schaut Euch hierzu auch diese aktuelle Diskussion mit Matt Cutts, Ben Gomes und Amit Singhal von Google an 😉

Sie befinden sind hier: Sollte Google mehr manuell eingreifen?

Kommentare zu diesem Beitrag:

  1. nordmarketing Group Website sagt:

    „…natürlich auch frustrierend, wenn offensichtlich viel schlechtere Seiten in den Suchergebnissen weit vor einem liegen.“ Das regt mich auch lfd. auf, aber was will man dagegen unternehmen. Mal ehrlich, wie soll das denn funktionieren? Ich glaube, dass das der Willkür Tür und Tor öffnen würde … und ich glaube weiterhin, dass Google dann größer (Personal) als die Arbeitsagentur in Nürnberg werden würde. 😉

  2. Shedi sagt:

    Mehr manuelles Eingreifen von Google wäre super. Wie erklärt man als In-House Seo seinem Arbeitgeber, dass man weiterhin auf Qualität setzen sollte wenn man, wie ich vor 2 Tagen erst wieder eine Seite entdeckt, die mit der Keyword Kombination „Laptop gebraucht“ ganz oben rankt. Die Webseite ist nicht gut gemacht aber dafür zugepflastert mit einer Keyword Kombination – wär ja auch nicht schlimm, wenn das Shopping Erlebnis entsprechend wäre. Dazu ganz oben auf der Seite – Graue Schrift auf blauem Hintergrund so, dass der Text dem Besucher fast gar nichts ins Auge fällt.

  3. Armin Website sagt:

    Mich wundert oft wieso Google den eindeutigen SPAM nicht schon längst viel besser aussperren kann, da die oben beschriebenen Techniken teilweise ohne Probleme durchgehen und doch eigentlich sehr leicht zu „enttarnen“ sein müssten! Würde man da härter in den Algorithmus eingreifen, wäre auch der Schaden der Spammer um einiges höher. Alle grenzwertigen Projekte die es zur Not ebenfalls erwischt, müssen dann eben „aufwerten“! Mehrere dieser „Kollateralschäden“ würden Google doch nur gut tun, da ja seriöse Projekte in der Regeln nicht einmal in die Nähe von „grenzwertig“ kommen.

    Aber wer könnte der Mitarbeiter bei Google sein, der das Recht innehaben sollte eine Website zu kicken? Und wo ist genau die Grenze zwischen SPAM und Nicht-SPAM für eine händische Sortierung? Bei Menschen spielen leider eben auch Meinungen teilweise eine große Rolle! Die Macht die diese Person(en) hätte(n), könnte daher leicht missbraucht werden bzw oft auch falsch angewendet werden. Ich denke auch deshalb wird man wohl an einer mathematischen Bewertung festhalten müssen.

  4. Pascal Website sagt:

    +1 für „aüßerst“ 😉

    Ich glaube die Frage stellt sich nicht wirklich, denn eine Suchmaschine muss in der Lage sein, algorithmische Ergebnisse zu liefern. Ein manuelles Eingreifen kann auf lange Sicht nicht funktionieren, weil der Aufwadn zu groß un das Wachstum des Internets zu schnell ist.

    • Gretus Website sagt:

      Hi Pascal,

      wenn Du bei jedem Tippfehler ein +1 gibst, kommst Du aus dem Plussen gar nicht mehr raus 😉

      Grüße

      Gretus

  5. DoFollowBlogger Website sagt:

    Danke für den Video-Link, der Inder ist lustich (für Google Places sagt er „Guugle PLatz“)

    Google würde „Manuelles Eingreifen“ wohl einfach als Armutszeugnis sehen; Ich kann es nachvollziehen, denn hätte ich Unsummen von Arbeitsstunden und Gelder in die Entwicklung von Algos und Tests gesteckt, würde ich davon auch nicht mehr so schnell abzubringen sein. Klar, an „Menschliche Augen“ kommen die Algos noch lange nicht ran, aber da es sich ja um „lernende Algos“ handelt, sollte man sie auch nicht gänzlich abschreiben.

  6. Gerhard Zirkel sagt:

    Manuelles Eingreifen führt zu den gleichen Problemen wie sie z.B. bei DMOZ aufgetreten sind, als die Editoren angefangen haben, Einträge zu verkaufen. Da gab es Kategorien in die ist man ohne Bezahlung gar nicht mehr reingekommen und teilweise läuft das bei Wikipedia auch schon so. Jetzt stellt euch mal vor, bei Google bekämen einzelne Mitarbeiter die Macht über die Serps …

    Gerhard

  7. Max Adler Website sagt:

    Das mit dem „manuell eingreifen“ ist wahrscheinlich aus wirtschaftlichen Gesichtspunkten einfach nur Trash. Ich denke, dass schon einige hundert Leute eingestellt werden müssten, um das Ganze erfolgreich zu kontrollieren.

    @G. Z.: Auch ein paar ziemlich gute Gesichtspunkte. Es würde bestimmt ein paar schwarze Schafe geben, die ihre „Macht“ über die SERPs entsprechend ausnützen würden.

    Also: Weiter am Algorithmus arbeiten und sich freuen, wenns klappt 🙂

    • Gretus Website sagt:

      Hallo,

      die Tatsache, dass einige ihre `Macht´ missbrauchen würden ist ein schlagkräftiges Argument. Wahrscheinlich ist das genau der Grund, warum alles so bleiben sollte wie es ist…

      Grüße

      Gretus

  8. Jan Website sagt:

    Einiger hundert Leute ist wahrscheinlich noch deutlich untertrieben, aber das größte Problem sehe ich darin, dass die manuellen Eingriffe sich wohl hauptsächlich im englischsprachigen Bereich abspielen würden. Hier ließe sich die Qualität somit evtl. verbessern, Google möchte aber in jeder Sprache die beste Suchmaschine anbieten. Der manuelle Eingriff in den verbreitetsten Sprachen würde aber die notwendige Algo.-Weiterentwicklung erschweren, da die Ergebnisse „verfälscht“ angezeigt werden bzw. das eigentliche Problem wäre nur aufgeschoben…aber niemals behoben 😉 Das passt einfach nicht zur Firmenphilosophie.

  9. Andreas Website sagt:

    Manche Webseiten sind irgendwann mal in den 1990igern gemacht und seitdem nicht mehr angefasst worden. Sie sehen dementsprechend aus und die Informationen sind auch oft hinfällig. SEO war zum Zeitpunkt der Erstellung wahrscheinlich auch noch kein Thema. Aber alleine dadurch, dass die Domain so alt ist, ranken sie auf der ersten Seite. Meiner Meinung gehören diese Webseiten da nicht hin. Aber das kommt dabei rum, wenn das Domainalter eine hohe Gewichtung bekommt.

    • Gerhard Zirkel sagt:

      Das Problem ist so einfach aber auch durch manuelle Eingriffe nicht lösbar. Denn dazu bräuchte Google ja für jedes Fachgebiet jemanden, der sich damit auskennt. Denn wer sonst könnte entscheiden ob eine Website inhaltlich veraltet ist oder nicht. Rein das Design zu nehmen wäre auch nicht richtig, denn auch eine hässliche Seite kann ja durchaus gültige und gute Inhalte haben.

      Und was machst du dann bei umstrittenen Themen, bei denen selbst Fachleute nicht „die Wahrheit“ kennen … ?

      Gerhard

  10. Alex sagt:

    Google wird nicht drumrum kommen immer wieder und verstärkt in Zukunft in die Ergebnisse einzugreifen. Die Ressourcen hat Google – ich frage mich bloß, wann sie beginnen sie auch einzusetzen.

    Um es nochmal ganz deutlich zu machen: Ein manueller Eingriff in die Ergebnisse ist in einem gewissen Grad eine subjektive Entscheidung. Das bedeutet, das evtl. eine Person oder evtl. eine kleine Gruppe über das Schicksal von Seiten bestimmen können.

    Im Google Algorythmus ist das in erster Linie anders, da der Algorythmus objektiv bewertet. Trotzdem ist auch der Algorythmus keine 100% objektive Bewertungsquelle: Denn dieser wird ebenso häufig von kleinen Gruppen oder Einzelpersonen modifiziert und ist somit ebenfalls nur so weit objektiv, wie die Personen die Kriterien vorher geprüft haben!

    Ein standardisiertes Verfahren für manuelle Eingriffe könnte also beim Spamschutz mehr bringen als ein alleiniger Algorythmus. So könnten sie trotzdem objektiv gehalten werden. Hätte doch auch den schönen Nebeneffekt, das man sich mehr anstrengen müsste, dem Nutzer auch etwas Gutes zu bieten. Wär das nix? 😉

  11. Ulli Website sagt:

    Ich glaube nicht, dass ein manuelles Eingreifen spürbare Verbesserungen bringen würde. Die reine Menge an Websites macht das schon fast unmöglich. Außerdem wäre auch dieses Verfahren nicht objektiv und würde Manipulationen Tür und Tor öffnen. Perfekt ist es jetzt sicher nicht aber das momentane Verfahren halte ich trotzdem für besser.

    Ulli

  12. Matze sagt:

    Ich sehe das auch genauso wie mein Vorredner: es ist zwar keinesfalls perfekt aber wenn man das nun „per Hand“ machen sollte ergeben sich viele Probleme.

    Die beiden größten dürften zweifelsfrei sein:

    – Objektivität vs Subjektivität. Wie in der Schule: je mehr Einfluss Einzelnoten, wie beispielsweise die mündliche Note, auf die Gesamtnote haben umso unfairer wird diese Note. Lehrer sind auch nur Menschen und wenn sie keine Kinder mit Locken mögen steigt die Wahrscheinlichkeit dass diese schlechter abschneiden (remember „Kevin ist kein Name sondern eine Diagnose“). Genauso wäre es auch bei Google: je mehr manuell, umso mehr subjektiv. Bei der Anzahl an zu bearbeitenden Seiten und Mitarbeiter die sich darum kümmern müssten wäre es kaum möglich noch irgendeine Rückkontrolle durch zu führen.

    – Die überwältigende Anzahl an Webseiten. Wieviele Leute will / müsste Google einstellen um zumindest einigermaßen Herr der Lage zu werden? Also ich würde den Job nicht nehmen, egal wie gut er bezahlt wird – was wahrscheinlich nicht passieren dürfte bei der Anzahl der Mitarbeiter die man dafür bräuchte. Wäre für Google also aus ökonomischer und qualitativer (je weniger Gehalt umso weniger Motivation umso weniger… usw.) Sicht kein wünschenswerter Zustand.

    So seh‘ ich das zumindest 😉

    Fazit: auch wenn es DEN perfekten Algorythmus wohl nicht geben wird und das entwickeln von neuen eine Sisyphus-Arbeit ist, bleibt es trotzdem die bislang beste Lösung.

    Grüße vom Matze

  13. Marcel Website sagt:

    Wie hier schon geschrieben wurde: Es ist praktisch nicht machbar, alle Websites von Hand zu überprüfen. Vorhandene Websites ändern sich und es kommen täglich viele hinzu.

    Schön fände ich es, wenn man sich im Einzelfall direkt an google wenden könnte. Wenn der Algorithmus versagt, könnte sich ein Mensch der Sache annehmen. Der Punkt „Seite neu anmelden“ in den Google Webmaster Tools hilft nicht wirklich, weil hier keine beidseitige Kommunikation möglich ist.

    Auf jeden Fall ist es lobenswert, dass sich Google ständig Gedanken macht und immer am Ball bleibt.

  14. Yury sagt:

    Ich denke Google wird schon aktuell und auch zukünftig in die Suchergebnisse eingereifen müssen. Nehmen wir mal an irgend ein dooves Algo wirft ehem…ebay aus den Serps… Jedoch werden die das nur in den seltensten Fällen machen, ansonsten müssen die doch halb Indien anstellen :=)

  15. Thomas sagt:

    Meiner Meinung, sollte Google den manuellen Eingriff so gering wie nur möglich halten, da (wie ein Vorredner schon schrieb) emense Summen in den Algorythmus investiert wurden, und ein manuelles Eingreifen finanziell-wirtschaftlich wenig Sinn machen würde. Doch anderseits müsste mehr Augenmerk auf die Suchrelevanz der ersten 10 Suchergebnisse bei Google gelegt werden, damit zumindest diese dem Suchenden eine entsprechende Qualität bieten und der manipulierte Spam von dort verbannt wird, welches meiner Meinung (im Moment) nur mit „manuellen Eingreifen“ möglich ist.

  16. […] Sollte Google mehr manuell eingreifen? […]

  17. Stephan sagt:

    Ich sehe auch das Problem der personellen Kapazitäten. Wie soll Google dann als Unternehmen noch wirtschaftlich sein? Außerdem schreit das regelrecht nach Manipulation wie bei DMOZ.

  18. […] halber möchten wir Euch kurz noch das Ergebnis unserer kürzlich gemachten Umfrage `Sollte Google mehr manuell eingreifen´ vorstellen. Da Googles Algorithmus zur Bewertung von Webseiten immer wieder auch Schwächen […]

Kommentieren

Loading Disqus Comments ...

Ihre Agentur noch nicht dabei?

Ihr Job noch nicht dabei?

Ihr Beitrag noch nicht dabei?