News

Evolution des Suchalgorithmus – So funktioniert die Google Suche heute

10.06.2019 von Sebastian Schulze

Mitte März war es wieder soweit: Google veröffentlichte ein größeres Update am Suchalgorithmus. Es handelte sich dabei um die wohl auffälligste Änderung im Index seit dem medic Update im vergangenen August. Das zunächst unter den Namen Florida 2 beziehungsweise Core 3 bekannte Update wurde am 15. März von Googles Danny Sullivan mit dem wenig kreativen Namen „March 2019 Core Update“ tituliert1. Seitdem ist in der Branche das bekannte Rätselraten ausgebrochen, welche Veränderungen am Algorithmus vorgenommen wurden und wie Seitenbetreiber darauf reagieren sollten.

Jedes Update eines Suchalgorithmus zieht Fragen mit sich. Daher geben wir in diesem Artikel einen Überblick über die wichtigsten Google Updates der vergangenen Jahre und erklären, wie die Suchergebnisse heute berechnet werden, worauf Webseitenbetreiber achten müssen, um möglichst gut indexiert zu sein und was das neueste Update für Ihre Seite bedeutet.


Update-Typen – Broad core algorithm updates vs. filter updates

Zunächst muss jedoch geklärt werden, was genau eigentlich ein Update am Suchalgorithmus ist. Bekanntermaßen arbeitet Google konstant an der Optimierung seiner Suchergebnisse, um deren Relevanz für die Nutzer stetig zu erhöhen. Jede ausgerollte Änderung an der Berechnungsgrundlage wird dabei als Update bezeichnet. Dies geschieht mehrmals im Jahr und wird meist nicht einmal bemerkt, da die Änderungen so geringe Auswirkungen haben, dass sie nicht weiter auffallen. Ebenso hält Google sich häufig recht bedeckt, wenn es um Auskünfte rund um den Suchalgorithmus und dessen Zusammensetzung geht.

Generell gibt es zwei verschiedene Typen von Google Updates: Man unterscheidet landläufig zwischen Veränderungen des Kernalgorithmus (engl. core algorithm), sogenannten broad core algorithm updates und den spezifischen Filter-Updates, wie z.B. Panda oder Penguin, die bestimmte Merkmale einer Webseite gezielt neu bzw. anders bewerten.

Der Kernalgorithmus – Wie Googles Suche funktioniert

Der core algorithm von Google ist die zentrale Berechnungsgrundlage für die Suchergebnisse und besteht aus mehr oder minder 200 verschiedenen Rankingsignalen, die genaue Zahl wird  geheim gehalten. Von diesen Signalen sind etwa 60 bekannt, also durch das Unternehmen bestätigt, geleaked oder durch Untersuchungen von SEOs weltweit aufgezeigt. Nicht bekannt ist jedoch, wie viel der einzelne Faktor zählt und wie die Faktoren sich untereinander beeinflussen. Hier ist Fingerspitzengefühl und Erfahrung gefragt. Ein update am Kernalgorithmus bedeutet daher nicht, dass ein bestimmter Faktor verändert wurde, sondern mehrere. So können bspw. 38 der 200 Faktoren in ihrer Güte, Bedeutung oder ihrem Zusammenwirken bei einem update Veränderungen erfahren. Letztlich ist es auf diese Weise häufig kaum möglich Parallelen der Profiteure oder Verlierer von updates festzustellen, da es den einen Grund, den alle gemein haben, nicht gibt. Ebenso kann Google  Webseitenbetreibern und SEOs hier nicht sagen, was verändert wurde und worauf diese zukünftig achten sollten, da sie die “secret sauce”, also weite Teile der genauen Zusammensetzung des Algorithmus hierfür preisgeben müssten und auf diesem Geheimnis der gesamte Unternehmenswert aufbaut. Somit sind broad core algorithm updates nur sehr schwer mit konkreten SEO-Maßnahmen zu beantworten. Stellt man einen Sichtbarkeits-/Rankingverlust nach einem solchen update fest, empfiehlt es sich daher in jedem Fall professionelle Unterstützung zu Rate zu ziehen.

Bei core updates gibt es heuer nicht mehr diese eine Parallele aller Gewinner bzw. Verlierer. Quick Fixes sind daher kaum noch möglich.

Panda, Penguin & Pigeon - Googles Filter-Updates und ihre Wirkung

Den broad core algorithm updates stehen spezifische Updates gegenüber. Diese Updates verändern streng genommen nicht den Kernalgorithmus, also die Berechnungsgrundlage der Ergebnisse, sondern die Suchergebnisse selbst, da sie wie Filter regelmäßig auf den Google-Index angewandt werden. Sie werden ebenfalls mehrmals jährlich veröffentlicht, fokussieren sich aber meist auf einzelne Faktoren. So war das Panda-Update, welches erstmals 2011 angewandt wurde, gezielt zur Bekämpfung minderwertiger Inhalte gedacht. Es wurden hierbei die Suchergebnisse so verändert, dass insbesondere Webseiten mit duplicate content, also von anderen Webseiten entlehnten Inhalten, abgestraft wurden. Penguin 2012 setzte die Sichtbarkeit von Seiten herab, die zu stark optimiert waren, bspw. durch keyword stuffing oder cloaking, also der übermäßigen Verwendung bestimmter Begriffe bzw. dem gezielten Ausspielen anderer Seiten, sobald ein Suchmaschinen-Crawler und kein realer Nutzer diese besucht. Pigeon 2014 hingegen erhöhte die Bedeutung lokaler Suchergebnisse und berechnete so den Standort des Nutzer stärker mit ein. Wichtig zu wissen ist auch, dass es sich hierbei nicht um einzelne historische Maßnahmen handelt, sondern um regelmäßig durchgeführte Updates, von denen mehrmals jährlich neue Versionen veröffentlicht werden.

Unerwähnt aber spürbar – Wie Phantom I bis V die Qualität von Webseiten definieren

Im Mai 2015 wurden in kurzem Abstand die sogenannten phantom updates I + II ausgerollt. Der Name rührt daher, dass der Suchmaschinengigant aus Kalifornien diese weder ankündigte, noch kommentierte. Kurz darauf veröffentlichte Google jedoch seine Quality Rater Guidlines, wonach die Qualität von Webseiten eingestuft wird. Anschließend waren wieder Veränderungen im Index bemerkbar (Phantom III). Auch schloss Google selbst eine Verbindung zum mobile update von Ende April desselben Jahres aus. Bis 2017 änderte Google noch mehrmals die Interpretation der Qualitätssignale. Diese Änderungen sind inzwischen als Iterationen Phantom IV und Phantom V bekannt.


Änderungen des Algorithmus – Ein Kolibri bringt mehr Speed & Akkuratesse

Weder ein klassisches broad core algorithm update, noch ein spezifisches Filter-Update war Hummingbird 2013. Frisch zum 15-jährigen Firmenjubiläum von Google wurde der neue Suchalgorithmus unter dem Namen Hummingbird veröffentlicht. Waren Penguin und Panda Updates, die das Ranking, nicht jedoch die Suche selbst veränderten, so handelte es sich im Falle von Hummingbird um einen weitreichenderen Ansatz, nämlich einen komplett neuen Suchalgorithmus. Hummingbird fokussiert sich insgesamt auf Sinnzusammenhänge anstatt wie bis dahin auf die Häufigkeit einzelner Keywords. Dies ist unter dem Stichwort LSI (latent semantic indexing) bekannt. Die Intention Googles ist es, so die Bedeutung der eigentlichen Suchanfrage mehr in den Vordergrund zu stellen, anstatt die Deckungsgleichheit einzelner Wörter zu ermitteln. Der Vollständigkeit halber soll auch noch das Caffeine Update aus dem Jahre 2010 Erwähnung finden, mit diesem wurde auf Microsofts Bing Einführung geantwortet, indem eine neue Suchinfrastruktur eingeführt wurde, die zur schnelleren Indexierung von Inhalten beiträgt.

Jüngste core Updates – Die Bedeutung von EAT steigt

Im vergangenen August wurde das letzte größere broad core algorithm update veröffentlicht, das sogenannte medic update. Es erhielt seinen Namen, weil vorrangig Seiten mit medizinischen Inhalten betroffen waren. Genauer gesagt Inhalte der Kategorie YMYL (your money, your life). Seiten mit solch sensiblen Informationen haben eine sehr hohe, vielleicht lebensverändernde Bedeutung für Nutzer, weswegen Google hier wesentlich strenger auf die Qualität der Inhalte achtet. Besonders Seiten, die einen hohen EAT-Score (Expertise, Trustworthiness und Authority) für das jeweilige Thema innehaben, wurden gestärkt. Seiten, die das Thema zwar behandeln, jedoch nicht über eine hohe Autorität verfügen, geschwächt. So zählten u.a. sodbrennen.de und fruchtbare-tage.com zu den größten Verlierern, wohingegen aerztezeitung.de und aerzteblatt.de zu den größten Gewinnern gehörten.


Florida 2 – Wie mit machine learning Nutzer besser verstanden werden

Ab dem 12. März diesen Jahres war es dann wieder einmal so weit und größere Verschiebungen im Suchindex von Google waren zu beobachten. Der Branchenprimus aus Mountain View, California, bestätigte einen Tag darauf, dass es sich um ein broad core algorithm update handelte.2 Dieses wurde in Deutschland, Frankreich und Italien zeitverzögerte ca. 24 Stunden später als in den Vereinigten Staaten ausgerollt. Zu erwähnen ist, dass hier der Rollout begann, dieser dauert in der Regel einige Tage, bis er für den gesamten Index abgeschlossen ist.3 Brett Tabke von WebmasterWorld taufte das Update auf den Namen „Florida 2“, nach der eine Woche zuvor in Fort Lauderdale, Florida stattgefundenen Pubcon Konferenz, einer bekannten Fachtagung für Digitales Marketing.4 Dies geschah in Anlehnung an das Florida Update aus dem Jahre 2003, welches eine grundlegende Veränderung des Google-Algorithmus mit sich brachte und ebenfalls nach dieser Konferenz benannt wurde. Zur damaligen Zeit war es relativ einfach gewesen die Suchergebnisse zu manipulieren. Mit dem Florida Update wurden zahlreiche Taktiken der Manipulation, wie z.B. keyword stuffing, eingedämmt.5 Googles Danny Sullivan von Search Liaison hingegen schlug für das März 2019 Update den Namen „Core 3“ vor, da es sich um das dritte broad core algorithm update handelt, welches eingeführt wurde, seit Google diese von offizieller Seite aus in dieser Weise bestätigt.6 Kurz darauf benannte es der Konzern jedoch offiziell als „March 2019 Core Update“.7

Ebenso viel Verwirrung, wie die Namensgebung hervorrief, gab es auch um die Auswirkungen. Search Engine Journal sprach vom größten Update seit Jahren8, andere hingegen bezweifelten diese Dimension und stuften es als weniger folgenreich ein, als das medic update ein halbes Jahr zuvor.

Es bleibt jedoch die Frage, für alle, deren Seiten seit Mitte März im Ranking an Sichtbarkeit verloren haben, welche Gründe vorliegen und was sie dagegen tun können. Leider ist die Antwort nicht so einfach zu geben, da es sich wie bereits erwähnt um ein broad core algorithm update handelt und somit nicht ein Rankingfaktor allen Gewinnern bzw. Verlierern gemein ist. Auffallend ist jedoch, dass es bei zahlreichen Seiten eine Gegenreaktion zu den Auswirkungen des medic updates vom vergangenen August gab, wie Barry Schwartz von Search Engine Land berichtete.9 Auch hat sich inzwischen die These manifestiert, dass die eigentliche Suchintention noch stärker gewichtet wird als bisher. Demnach soll laut Martin Missfeldt der Trust einer Seite nun Teil der Intention der Suchanfrage und nicht mehr ein Rankingsignal selbst darstellen.10Alles spricht dafür, dass Google seinen Weg, die Nutzerintention besser zu verstehen und zu beantworten, konsequent fortsetzt und den Einsatz von Machine Learning forciert. Hierfür spricht auch, dass kürzlich ein Paper des Unternehmens über die Groupwise Scoring Function (GSF) veröffentlicht wurde. Unter GSF versteht man, dass nicht nur der Inhalt der Dokumente und dessen Bezug zur Suchanfrage, sondern auch deren Bezug untereinander ausgewertet wird. Alle Zeichen deuten darauf hin, dass im Algorithmus die Bedeutung von Machine Learning und GSF zugenommen hat und Nutzeranfragen anders bewertet werden.

Wie mittels Groupwise Scoring Function der Seifenopern-Effekt beantwortet wird

Google verdeutlichte die Funktionsweise der Groupwise Scoring Function mit folgendem Beispiel: Kinofilme werden in 24 Vollbildern pro Sekunde aufgezeichnet, wohingegen Fernsehproduktionen in 50 Halbbildern pro Sekunde gedreht werden. Wenn nun Kinofilme „hochgerechnet“ werden auf das Fernsehformat, entsteht der Effekt, dass sich die Schauspieler im Vordergrund deutlich abheben und die Kulisse im Hintergrund flach wirkt, obgleich sie dies bei aufwändigen Kinoproduktionen meist nicht ist. Da Seifenopern (engl. soap opera) meist einfache Kulissen verwenden, wirken die Kinofilme durch das Umrechnen ungewollt genauso. Dieses Phänomen ist als soap opera effect (dt.: Seifenopern-Effekt) bekannt. User kennen diesen Effekt meist nicht beim Namen und googlen daher Suchanfragen wie bspw. „Warum sieht mein TV-Bild schlecht aus?“.

Mit der bisherigen Interpretation der Suchanfrage, die hauptsächlich auf Keywords aus war, konnte die Verbindung von Frage zu Antwort kaum hergestellt werden, da möglicherweise kein einziger Begriff aus der Frage in Artikeln zu diesem Thema vorkam. Google muss somit unter Zuhilfenahme von AI (artificial intelligence) „lernen“ was der soap opera effect ist und was der Nutzer mit seiner Suchanfrage meint, um dann diesen logischen Zusammenhang herzustellen und die Frage beantworten zu können.

Kurz um, durch Machine Learning versucht Google die Intention des Nutzers noch besser zu verstehen und auch globale Dokumente einfließen zu lassen. Das Florida 2/Core 3-Update ist daher keine Abwertung einzelner Seiten aufgrund von gewissen Eigenschaften, sondern eine Weiterentwicklung des Algorithmus, um Suchanfragen besser zu interpretieren. Wie Google selbst bei der offiziellen Bestätigung des Updates sagte, gibt es nichts zu fixen, wodurch die Rankings sich wieder verbessern.11

Eine gute UX (user experience), qualitative Backlinks, guten Content, eine technisch optimierte Seite und ein hoher EAT-Score sind die Garanten für den SEO-Erfolg im Jahre 2019. Wir als langjähriger Begleiter unserer Kunden auf dem Weg zu mehr Sichtbarkeit im Netz beraten Sie gerne rund um das Thema SEO und verhelfen Ihnen zu einem nachhaltigen Wachstum online.

Die Zeiten von einfachen SEO-Techniken, wie reiner Keyworddichte, sind vorbei. 2019 braucht man eine gute UX, qualitativen Content und Backlinks sowie einen hohen EAT-Score


1 Vgl. Google SearchLiaison Tweet 2019, bit.ly/GoogleTweetCore3.

2 Vgl. Google SearchLiaison Tweet 2019 bit.ly/GoogleTweetCore3.

3 Vgl. Becker 2019, bit.ly/becker2019.

4 Vgl. Montti 2019, bit.ly/montti2019.

5 Vgl. Halasz 2017, bit.ly/halasz2017.

6 Vgl. Sullivan 2019, bit.ly/sullivanCore3.

7 Vgl. Google SearchLiaison Tweet 2019, bit.ly/GoogleTweetCore3.

Vgl. Montti 2019, bit.ly/montti2019.

9 Vgl. Schwartz 2019, bit.ly/schwartz2019.

10 Vgl. Missfeldt 2019, bit.ly/missfeldt2019.

11 Vgl. Google SearchLiaison Tweet 2019, bit.ly/Core3fix.