SMX 2016: Das gibt Google über sein Ranking preis

Auf der SMX Conference West 2016 in San Jose hat Google Engineer Paul Haahr erklärt, wie Google funktioniert. Was uns natürlich interessiert: Wie können wir „die erste Wahl“ für Google sein, so dass wir mit unserer Website möglichst weit oben für den Suchenden angezeigt werden? Darum habe ich den Vortrag von Paul Haahr unter die Lupe genommen.

Wie funktioniert eigentlich GOOGLE?

Bevor Google die Ergebnisse für eine Abfrage liefert, sammelt die Suchmaschine dazu sämtliche Informationen. Dafür sind verschiedene Schritte notwendig:

So analysiert und indexiert Google die Seiten

Google scannt bzw. crawlt jede Seite und Unterseite. Konkret bedeutet dies, dass u. a. alle eingehenden und ausgehenden sowie interne Verlinkungen geprüft werden und CSS & Java Script gerendert werden. Danach erstellt Google einen Index, den ihr euch wie eine Inhaltsangabe in Büchern vorstellen könnt.

Ein Index ist eine Liste mit Wörtern, zu denen Google sämtliche passende Seiten gespeichert hat.

Die gescannten Seiten werden in Gruppen unterteilt – diese Gruppen werden „Shards“ genannt. Tausende von „Shards“ bilden den Web-Index. Zusätzlich werden die Dokumente mit Metadaten versehen.

Wie verarbeitet Google Suchanfragen?

Google verarbeitet die Abfragen grob betrachtet wie folgt:

  1. Google versucht, die Abfrage bzw. Intention des Suchenden möglichst genau zu verstehen.
  2. Google sucht anhand des Index nach den zur Abfrage am besten passenden Seiten.

Google ordnet der Abfrage einen thematischen Kontext zu und analysiert zudem: Ist die Suchanfrage eindeutig, wie z. B. ein bestimmter Personen- oder Unternehmensname, oder handelt es sich um ein verwandtes Synonym oder eine Abkürzung? Nehmen wir als Beispiel den Begriff „gm“. Google weiß nicht, ob damit z. B. die Abkürzung für „General Motors“ oder „Genetically Modified“ gemeint ist.

Danach sendet Google die Abfrage an alle Shards. Jede Shard findet Seiten, die – je nachdem, wie gut sie zur Anfrage passen – einen Wert (Scoring) zugeordnet bekommen.

Anschließend werden die Ergebnisse von jeder Shard an Google zurückgeliefert, und die gefundenen Seiten nach Scorings sortiert.

Aber bevor der User die Ergebnisse angezeigt bekommt, passiert noch etwas: Die Seiten werden geprüft auf Host, Duplikate, auf Spam usw.

Erst nach dieser Filterung generiert Google die Snippets, die Top 10-Google-Platzierungen sowie die nachfolgenden Ergebnisse.

Was genau machen eigentlich die Google Engineers?

Sie sehen gerade einen Platzhalterinhalt von Standard. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf den Button unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Weitere Informationen

In seinem Vortrag erklärt Paul Haahr zudem, wie die Google Engineers den Algorithmus verbessern und nach welchen Kriterien die Seiten analysiert werden. Dabei kommen die Scoring Signals ins Spiel:

Die Scoring Signals

Auf das Scoring legen die Engineers großen Wert, da es sehr hohe Relevanz fürs Ranking hat.

Scoring Signals sind Informationen, die dafür herangezogen werden.

Die Scoring wird in zwei Prozessen ermittelt. Einer ist abhängig von der Abfrage bei Google, der andere nicht:

Abhängig von der Suchanfrage: Analyse des Suchbegriffs, des semantischen Kontexts, von Synonymen u. ä.

Unabhängig von der Abfrage: Page Rank, Sprache, Mobile-Freundlichkeit der Seite usw.

Ganz offensichtlich ist der Page-Rank für Google noch relevant!

Um die Ergebnisse zu verbessern, werden bestehende Signals stetig um neue ergänzt.

Metrics: Live-Experimente und Googles Human Rater

Die gefundenen Ergebnisseiten, die Google zu einer Abfrage liefert, werden ebenfalls bewertet.

Kriterien dafür sind u. a.:

  • Relevanz für den User bzw. seine Such-Intention,
  • Qualität der Seiten, die angezeigt werden,
  • Geschwindigkeit, bis die Ergebnisse angezeigt werden,
  • usw.

Bewertungsmaßstab für diese Metriken sind Live-Experimente und menschliche Test-Bewerter, von Google “Human Rater“ genannt.

Hier ein Beispiel für ein Live-Experiment (quasi eine A/B-Test im Live-Traffic):

  1. Zwei Seiten „S1“ und „S2“ beantworten die Benutzeranfrage.
  2. Bei S1 befindet sich die Antwort auf der Seite.
  3. Bei S2 liefert das Google-Snippet die Antwort.
  4. Algorithmus A legt S1 vor S2 => User klickt auf S1 => “gut”
  5. Algorithmus B legt S2 vor S1 => kein Klick auf S2 => “schlecht”

Doch ist A wirklich besser als B?

Nun kommen die Human Rater zum Einsatz. Die Human Rater experimentieren mit bestimmten Suchanfragen und Suchergebnissen. Die End-Ergebnisse, wie hilfreich die Antworten waren, liefern sie an Google. Google analysiert daraufhin die Bewertungen der Human Rater.

Die Kriterien, an die sich die Rater halten müssen, sind in den Google-Richtlinien definiert. Tools bieten ihnen zusätzliche Unterstützung.

Da die Mobile-Suche die Anzahl der Desktop-Suchanfragen überholt hat, werden mehr Experimente über die mobile Suche gemacht. Auch die Rater analysieren die Seiten übers Smartphone.

Hier die Bewertungen, die die Human Rater für die Ergebnisseiten abgeben können:

  • Voll erfüllt
  • Sehr erfüllt
  • Mäßig erfüllt
  • Leicht erfüllt
  • Übereinstimmt nicht

Um die Qualität der Seiten zu bewerten, geht es um die Fragen: Werden Fachkenntnisse vermittelt? Sind die Seite und der Autor ein Experte in dem Bereich bzw. Thema, um das sich die Website dreht? Sind die Seite und der Autor als vertrauenswürdig einzuschätzen?

Die Bewertungsskala geht von “gute Qualität“ bis hin zu “geringe Qualität“:

Seiten mit guter Qualität:

  • Seite liefert qualitativ hochwertigen Content.
  • Die Seite verfügt über Autorität (Page Authority) und ist für das Thema vertrauenswürdig.
  • Die Seite hat eine gute Reputation für das Thema.

Seiten mit geringer Qualität:

  • Qualität des Contents ist gering.
  • Der Autor ist kein Experte in dem Bereich.
  • Die Seite hat eine schlechte Reputation.
  • Schlechte Anzeigen auf der Seite (zu viele oder thematisch unpassende).

Auch Human Rater sind eben nur Menschen

Paul Haahr hat auch über die Probleme berichtet, die trotz Bewertung der Human Rater häufiger aufträten. Diese zwei Hauptprobleme hat er benannt:

1. Systematisch schlechte Ratings

Damit sind Ergebnisse gemeint, die vom Rater als sehr gut bewertet wurden, aber andere Ergebnisse lieferen, als der User sucht bzw. erwarten würde.

2. Metriken erfassen nicht die Angaben, die gebraucht werden.

Die Metriken erfassen nicht das, was der Engineer braucht, sondern liefern andere Ergebnisse. Die Ergebnisse mögen auf den ersten Blick in Ordnung sein, liefern jedoch Content niedriger Qualität.

Da die Rede von Content und den Jahren 2009 bis 2011 ist, vermute ich, dass Google damals den Panda-Algorithmus als Lösung für diese Probleme online gestellt hat.

Interessant ist auch der Fragen- & Antworten-Teil, den ihr hier im Video anschauen könnt. Vor allem, Paul Haahr Aussage, dass Rank 10 mehr Klicks hat als Rank 8 und Rank 9 zusammen!

Auf jeden Fall empfehlen ich euch auch, den Vortrag von Beshad Behzadi zu sehen „The Future of Search“, bei dem es um Googles Sprachsuche geht.