x
oxmo GmbH & Co. KG
SISTRIX Toolbox
SISTRIX Toolbox

Angebot anfordern

Die Internetsuche am Scheideweg

Internet  |   |  , 16:49 Uhr  |  5 Kommentare

Nachdem uns Frank Fuchs von Bing in seinem kürzlich auf sistrix.de veröffentlichten Artikel `Wie misst eine Suchmaschine ihre eigene Relevanz?´ erklärt hat, dass die Betreiber bekannter Suchmaschinen zur Überprüfung ihres Algorithmus zur Bewertung von Webseiten immer mehr auch auf die Hilfe menschlicher Rater angewiesen sind, beschreibt ähnliches nun auch Bill Slawski in seinem Artikel `Google’s Human Evaluators´. Bill stellt in seinem Artikel einige interessante Methoden vor, wie Google und Co. Webseiten von Menschen bewerten lassen…

Suchmaschine vs. Mensch

Glaubt man den Aussagen der Betreiber bekannter Suchmaschinen, ist es derzeit noch so, dass die aus den Ratings von Menschen gewonnen Daten nicht direkt in den Algorithmus zur Bewertung von Webseiten einfließen, sondern lediglich dafür verwendet werden, ihn damit abzugleichen. Um eine möglichst große Menge an `menschlichen Abgleichdaten´ zu erhalten, werden den Ratern die unterschiedlichsten Aufgaben gestellt.

Die Rater müssen die Relevanz bestimmter Webseiten unter bestimnten Keywords bewerten, unterschiedliche Webseiten in Bezug auf ein Keyword in eine bestimmte Reihenfolge bringen oder auch versuchen zu bestimmen, inwieweit eine Webseite nicht (!) für ein bestimmtes Suchwort relevant ist.

Wie Matt Cutts in unten zu sehendem Video noch einmal erklärt, dienen die aus den Ratings gewonnen Daten ausschließlich dazu, gemachte bzw. geplante Algorithmusänderungen zu überprüfen. Um die Objektivität der Suchergebnisse zu wahren, besteht Google nach wie vor darauf, so wenig wie möglich manuell in die Ergebnisse einzugreifen.

Objektivität vs. Kollateralschaden

Da es Suchmaschinen ohne menschliche Hilfe offensichtlich nicht mehr schaffen, die Qualität ihrer Ergebnisse aufrecht zu erhalten, bleiben den Betreibern eigentlich nur zwei Möglichkeiten: Entweder man lässt die aus den Ratings gewonnen Daten direkt in den Algorithmus mit einfließen und riskiert dadurch einen Objektivitätsverlust oder man passt den Algorithmus auf Grundlage der Daten lediglich immer wieder an und riskiert damit einen immer größer werdenden Kollateralschaden.

Die erste Möglichkeit hätte in der Praxis zur Folge, dass man als Betreiber einer Webseite möglicherweise zu schlecht bzw. bei täglich Millionen neuer Webseiten erst sehr spät von einem Rater bewertet werden würde. Bei der zweiten Möglichkeit wissen wir aus der Praxis, dass man hier auch völlig unschuldig zum Opfer der mittlerweile immer häufiger werdenden Algorithmusänderungen (Panda, Penguin usw.) werden kann und es dann schwer hat, dieses im Nachhinein vor Google und Co. zu beweisen.

Gegenwart vs. Zukunft

Schaut man sich die jüngsten Entwicklungen im Bereich Internetsuche sowie die teilweise hilflos wirkenden Bestrebungen der Suchmaschinenbetreiber an, ihre ausschließlich auf einen mathematischen Algorithmus aufbauende Suche durch immer häufigere menschliche Eingriffe auch weiterhin als die beste Möglichkeit der Suche im Internet zu verteidigen, sind wir möglicherweise an einem Punkt angekommen, wo eine auf menschlichen Ratings aufbauende und lediglich durch mathematische Algorithmen unterstützende Suche sich als besser als das jetzige Modell erweisen könnte!?

Natürlich nicht zuletzt auch in Bezug auf SEO bzw. Suchmaschinenoptimierung ist es spannend, in welche Richtung sich die Suche im Internet entwickeln wird. Ich persönlich denke, dass die soziale Suche noch nicht das Ende bedeutet, sondern sie lediglich eine Übergangsphase darstellt. Soziale Suchergebnisse werden sowohl für die Nutzer als auch für die Betreiber der Suchmaschinen nicht das gewünschte Ergebnis liefern und die Qualität der Ergebnisse von Suchmaschinen sogar noch verschlechtern!

Scheitert die soziale Suche tatsächlich, bleibt als Alternative nur das totale Chaos oder die redaktionell geführte Websuche…

Gretus

VN:F [1.9.22_1171]
Bewertung: 5.5/10 - 4 Bewertungen
Sie befinden sind hier: Die Internetsuche am Scheideweg

Diskussion zu diesem Beitrag:

Kommentare zu diesem Beitrag:

  1. Martin Website sagt:

    Ganz maschinell klappt es aber nicht, denn irgendwo schmeißt Google den Juice ins System.

    Die Soziale Suche seh ich auch nicht vorn, denn man liked eher was einen interessiert. Wer liked schon eine Seite über Fußpilzsalben, auch wenn diese evtl. die besten Infos zum Keyword ausgeben? Das führt dazu, dass nur gewisse Themen überhaupt Social gefunden werden können, bzw. Webmaster extrem drauf achten müssten, dass ein Thema “like-fähig” ist. 100 Tote bei AKW Unfall? Vielleicht ein toller Artikel, aber Likes gibts hier wenige ;-)

    Ich persönlich würde die Reaktionen der Nutzer mehr in die Gewichtung einbeziehen. Wenn man beachtet wie gering der Anteil an Ref-Traffic oft ist, so zählen Links einfach viel zu viel.

  2. Stefan Wienströer Website sagt:

    Wenn die noch ´nen Quality-Rater suchen, hier bin ich. Nehme kein Geld dafür, möchte mir dafür die Queries aber aussuchen ;-)

  3. Wie erkennt Google Spam - seosweet.de Website sagt:

    […] Kurz gesagt gibt es Möglichkeiten das Ranking in den Suchmaschinen zu manipulieren […]

  4. Seb@argutus Website sagt:

    @Martin: Das kann durchaus sein. Manche Artikel sind mit Sicherheit gut geschrieben und informativ, aber bei Weitem nicht unbedingt like-fähig.

    Im Laufe der letzten Updates sind ja viele Webseitenbetreiber das Opfer der Algortithmusänderungen geworden. Soziale Suchergebnisse sollen ja wiederum ein Synonym für Qualität sein. Mal schauen, was da noch passiert, aber die Thematik selbst ist unheimlich spannend.

  5. wolfgang Website sagt:

    Unterm Strich alles Spekulationen. Social SEO betrifft ja nicht nur die Anzahl von Likes, da geht es ums Gesamtpaket und beginnt schon beim Author-Credential.

Kommentieren

  • Michael: Ich kann den Wunsch von Björn Tantau wirklich nur unterstreichen. Eine...
  • Ina Taratina: Da sind schon so einige Wünsche dabei, die ich so unterschreiben würde....
  • Jörg: Ich finde gerade den Artikel zu den Expired Domains sehr interessant. Mal sehen,...
  • Kani: Schon beeindruckend dieser Marktanteil von Google! Kann mir nich vorstellen das...
  • Maike Wie lernt man SEO bzw. Suchmaschinenoptimierung?
  • Doreen Wie kann ich Google Ergebnisse löschen lassen?
  • Hauke Keyworddomains für Affiliate-Seiten gefährlich?
  • Thomas Breadcrump-Navigation eher etwas für Webshops?
  • Markus 301 Weiterleitungen wieder entfernen?
  • Sascha Was beachten bei System- bzw. Server-Umstellung?

Ihre Agentur noch nicht dabei?

Ihr Job noch nicht dabei?

Ihr Beitrag noch nicht dabei?