Alternativen

Der PageRank-Algorithmus, also die Zahl und die Stärke der eingehenden Links einer Webseite, wird immer ein wichtiger Faktor zur Beurteilung der Relevanz bzw. Wichtigkeit einer Webseite bleiben.

Der PageRank an sich gibt im Prinzip jedoch keinen "direkten" Hinweis auf die eigentliche Qualität einer Webseite. Da die Qualität einer Webseite aber letztendlich für deren "Relevanz" ausschlaggebend ist, wird laufend an "alternativen" Beurteilungsverfahren gearbeitet, von denen hier nur einige wenige kurz erläutert werden sollen.

Hilltop-Algorithmus: Mit Hilfe des so genannten "Hilltop-Algorithmus" werden Webseiten aufgrund ihrer Relevanz in Bezug auf bestimmte Suchwörter bewertet. Zuerst werden hierbei einige Expertenseiten zu einem bestimmten Thema bzw. einem bestimmten Suchwort bestimmt. Dieses sind Seiten, die auf viele unabhängige Webseiten zu einem bestimmten Thema verlinken. Danach werden so genannte Autoritätsseiten ermittelt. Autoritätsseiten sind Webseiten, auf die mindestens zwei Expertenseiten verweisen. Der Hilltop-Algorithmus wurde von Krishna Bharat und George A. Mihaila an der University of Toronto entwickelt. Im Jahre 2003 kaufte Google das Patent und wendet es möglicherweise auch heute noch so an. Von Google definierte Autoritätsseiten erkennen Sie unter anderem daran, dass deren Einträge in den Ergebnislisten relevanter Suchwörter an erster Stelle stehen und neben der üblichen Seitenbeschreibung auch noch weitere Informationen, so genannte Sitelinks, aufweisen.

Hubs and Authorities: Dieses Verfahren, auch unter dem Namen "HITS" bekannt, definiert die Wertigkeit einer Webseite aufgrund ihrer Hub- bzw. Autoritätseigenschaft. Die Hubeigenschaft einer Webseite ergibt sich aus der Anzahl bzw. Qualität deren ausgehender Links, die Autorität einer Seite wiederum wird durch deren Links von anderen Seiten bestimmt. Durch diesen, unter anderem von dem US-Amerikaner Jon Kleinberg entwickelten Algorithmus, werden allgemein wichtige Knotenpunkte innerhalb der Verlinkungsstruktur des World Wide Webs definiert.

Trustrank: Der "Trustrank-Algorithmus", ebenfalls von Google patentiert, wurde in erster Linie entwickelt, um Spamseiten aufzuspüren. Hierzu werden zuerst einige wenige Autoritäts- bzw. unabhängige und vertrauenswürdige Expertenseiten definiert. Danach werden alle ausgehenden Links verfolgt, wobei der Trustrank der Autoritäts- bzw. Expertenseiten, ähnlich wie bei der Verteilung des PageRanks, auf die verlinkten Seiten und deren externe Links weitergegeben wird. Da Spamseiten in der Regel kaum verlinkt werden, kann man diese so relativ einfach herausfinden und entsprechend abwerten.

Darüber hinaus gibt es noch viele weitere Ansätze, die Ergebnisse von Suchmaschinen zu verbessern bzw. unrelevante Ergebnisse zu filtern. Generell wird bei allen diesen Verfahren entweder der Inhalt, also die eigentliche Qualität einer Webseite, oder neuerdings auch der Autor eines Inhalts in den Vordergrund gestellt. Da es aufgrund verschiedener Faktoren bzw. immer neuer Manipulationstechniken sehr schwer ist, dieses ausschließlich automatisiert durchzuführen, gehen viele dieser Ansätze, ähnlich wie z.B. beim Trust- oder auch AuthorRank, immer mehr auch von manuell geprüften Webseiten bzw. "Fixpunkten" aus.

In Zukunft wird es so sein, dass immer der Autor bzw. Leser über die letztendliche Qualität einer Webseite entscheidet. Schafft es ein Autor, seine Leser regelmäßig mit neuen Inhalten von seinem Expertenwissen zu überzeugen, werden auch Suchmaschinen dieses über die Auswertung spezieller Signale (z.B. Social Signals) oder auch Daten (z.B. Browser Bookmarks) feststellen und sämtliche Inhalte des Autors danach "positiv" bewerten...

zurück weiter