Google war im März 2024 von einen Leak von tausenden Dokumenten mit Details zu 14.000 Such-Ranking Faktoren betroffen. Das streng gehütete Geheimnis des Google-Such-Algorithmus, der heilige Google Gral seit 25 Jahren, lag jetzt ein Stück weit offen zu Tage: 2.500 Seiten der internen Dokumentation. Als hätte eine Gang das Geheimrezept von Coca Cola erbeutet.
Einblicke in Google’s Gelddruck-Maschinenraum
Der Unterschied zu Coca-Cola: Googles jährliche Einnahmen betragen grob das Vierfache des Jahresumsatzes von Coca Cola weltweit – allein über die Anzeigen auf den Suchergebnis-Seiten ca. 200 Mrd €.
Das Geheimnis wurde gut gehütet und ständig mit Investitionen in Köpfe und in Technologie verteidigt. Weder Microsofts Bing noch andere Suchmaschinen-Konkurrenten konnten bislang Google das Wasser reichen. Zu Beginn des Jahres 2024 lag der Marktanteil von Google relativ stabil bei ungefähr 91-92%.
Aktuell (Stand September 2024) hat der Marktanteil minimal nachgegeben auf 91%. Noch scheint Wettbewerb von neuen, möglichwerweise disruptiven Wettbewerbern wie SearchGPT weit entfernt.
Folgen für die weitere Suchmaschinenoptimierung?
Seit diesem sogenannten Google API Leak, Google SEO Leak oder auch Google Rank Data Leak werden die zu Tage geförderten Geheimnisse analysiert – z.B. in einem Post bei SEO Südwest, vom Marketing- und SEO-Spezialisten Rand Fishkin, von SERoundTable und weiteren SEO-Experten.
Rand Fiskins Schlußfolgerung von Ende Mai 2024:
The Google API Leak Should Change How Marketers and Publishers Do SEO
(Rand Fishkin, 31.05.2024)
Wie also müssen SEO Agenturen und Content-Marketer ihre Strategien auf Grund der Leak-Erkentnisse ändern? Hierzu einige meiner gesammelten / gewonnenen Erkenntnisse und Tipps.
Nicht nur für die technische SEO interessant
Die jetzt öffentlich gewordenen Dokumente enthalten meist technische Beschreibungen von Algorithmus-Scripten, von Logiken und Parametern. Aber die Auswirkungen sollten, schreibt Rand Fishkin, auch SEO-Dienstleister berücksichtigen, die nicht nur auf technische SEO spezialisiert sind.
Denn, so Fishkin, es gehe tatsächlich um mehr: Google ist weiter dabei, den Content strenger zu bewerten und zu qualifizieren. Der Leak mache jetzt die Maßstäbe und Konsequenzen bei Googles neuen Standards unmißverständlicher klar. Google’s „Gelbe Karte“ (in Form von Rankingverlusten) und „Rote Karte“ (De-Indexierung) können schneller kommen.
Das kehrt die Ausrichtung und Umsetzung von Content Marketing und SEO nicht um 180 Grad um – aber bestärkt all jene, die offiziellen Google Verlautbarungen eher kritisch gegenüberstanden – wie ich auch spätestens seit 2015. Eine der am häufigsten geführten Debatten der vergangenen Jahre ging z.B. um die Frage, ob Google die sogenannten „Nutzer-Signale“ in das Such-Ranking einfließen lässt. Was von Google regelmäßig bestritten worden war – „Crap“ sei das (siehe unten).
Was ändert sich dadurch also für die Content-Erstellung und Suchmaschinenoptimierung?
Aus einigen der Analysen und Diskussionen unter Content Marketern und SEO-Experten ergeben sich Folgerungen für die Content-Strategie und Suchmaschinenoptimierung.
Inhaltliche Qualität, Aktualität, NEU: „letzter guter Klick“:
Ein zentrales Ergebnis aus den geleakten Dokumenten ist Googles anhaltender Fokus auf die Qualität und Frische von Inhalten. Google bewertet die Aktualität von Inhalten unter anderem anhand von Byline-Daten* und Aktualisierungstimestamps**. Es bestätigt sich die Vermutung, dass es wichtig für’s Ranking ist, Inhalte regelmäßig zu aktualisieren. Auch um ihre Relevanz und Wertigkeit zu erhalten (Chain Reaction).
* „Byline-Daten“ beziehen sich in erster Linie auf das sichtbare Datum, das auf der Webseite neben oder unter dem Namen des Autors angezeigt wird, insbesondere bei Blogartikeln, News oder anderen redaktionellen Inhalten.
** „Aktualisierungstimestamps“ kann Google u.a. aus der XML-Sitemap herauslesen.
Außerdem beschreibt das Magazin t3n eine mögliche Abwertung von Content, der länger nicht mehr angeklickt wurde:„Zudem gibt es eine Metrik des „letzten guten Klicks“. Dadurch könnte Google messen, wann eine Seite nicht mehr geklickt wird und sie dementsprechend aufgrund ihres Alters oder der schwindenden Relevanz herunterstufen“
Wenn also „der letzte gute Klick“ auf einen Content schon lange her ist, kann dieser Content selbst, aber auch die ganze Site abgewertet werden.BESTÄTIGT: Nutzerengagement (User Signals) als Ranking-Faktor:
Die Dokumente bestätigen auch, dass Nutzerengagement-Messdaten wie die Klickrate (CTR)* und Verweildauer** (Dwell Time) auf der angeklickten Seite entscheidend für die Platzierung in den Suchergebnissen sind.
* Klickrate: Wie hoch ist der Anteil der Klicks auf ein Suchergebnis im Verhältnis dazu,. wie oft es angezeigt wurde? Bei den organischen (unbezahlten) Ergebnissen können gute Titel-Tags und Meta-Beschreibungen die Klickrate steigern. Die Klickrate wird allerdings in erster Linie von der Position eines Ergebnisses im organischen Ranking bestimmt. Klickraten für die erste Position können ca. 25-35% betragen. Die CTR-Werte können je nach Branche, Suchintention und Ergebnis-Layout (z.B. Anwesenheit von Anzeigen, Featured Snippets, Produktanzeigen etc.) stärker variieren.
** Dwell Time oder Verweildauer bezeichnet die Zeitspanne, die ein Besucher auf einer Webseite verbringt, nachdem er zuvor auf ein Suchergebnis geklickt hat und bevor er zu den Suchergebnissen zurückkehrt. Beispiel: Wenn ein Nutzer nach „beste Pasta-Rezepte“ sucht und 5 Minuten auf einer Seite verbringt, wird dies positiver bewertet als ein 10-sekündiger Besuch.Googles NavBoost-System, das Klicks als Ranking-Signal erfasst, unterstreicht die Bedeutung von Inhalten, die nicht nur Klicks generieren, sondern auch Nutzer auf der Seite halten (Chain Reaction).
Google’s NavBoost kurz erklärt:
Das NavBoost-System, das in den Dokumenten 84 Mal erwähnt wird, verfolgt und nutzt Klicks und ihre Reihenfolge als Ranking-Signal und bestätigt damit erneut die Bedeutung des Nutzerengagements für SEO. Ein solcher NavBoost-Faktor dürfte die Anzahl der Seiten sein, die ein Besucher auf einer Site zusammenhängend anklickt.
Ein anderer NavBoost-Faktor könnte sein, dass Google bestimmte Suchanfragen mit hoher Suchhäufigkeit (wie auch Suchen mit Markenbegriffen) besonders – eventuell bevorzugt – behandelt. Das könnte erklären, warum Suchergebnisse mit Markenbezug oft Rankingvorteile haben. Es wirft aber auch weitere Fragen auf.
So schaut ein Dokument aus dem Google API Leak aus, hier einer der Abschnitte zu NavBoost:
NavBoost, so der SEO-Experte Tom Capper bei Moz.com, betone einmal mehr dem „Imperativ“, UX, Marke und Klickfreundlichkeit zu priorisieren – all das, was ein klickbasiertes Ranking-System eben impliziere.BESTÄTIGT: E-E-A-T rules
Das Google Core-Update betonte die Notwendigkeit zu einem ganzheitlicheren, konsequent nutzerzentrierten Ansatz in der SEO (Siehe meinen Artikel: Content nicht für Google, sondern für den Besucher).
Ähnlich wie bei den Panda- und Penguin-Updates ab 2012, die die SEO durch das Anprangern von Keyword-Stuffing und Link-Manipulation neu definierten, konzentriert sich das aktuelle Update auf eine positive Nutzererfahrung und auf die Inhaltsqualität.
Es ist nun noch wichtiger, dass der Content den „neuen Google Standards“ inklusive der sogenannten E-E-A-T Komponenten (Erfahrung, Expertise, Autorität und Vertrauenswürdigkeit) entsprechen (3 Media Web).NEU: siteAuthority – Seitenautorität und Linkprofile
Der Aufbau und die Pflege einer starken Seitenautorität bleibt auch im Zusammenhang mit den E-E-A-T-Faktoren von zentraler Bedeutung. Die geleakten Dokumente bestätigen die Verwendung eines „siteAuthority“-Scores, der von Faktoren wie Inhaltsqualität, Nutzerengagement und Backlinks beeinflusst wird. Ebenso positiv: Eine plausible, nachvollziehbare Autorenschaft und eine starke Markenpräsenz etwa durch Erwähnungen in Medien, durch positive Bewertungen und eine konsistente Online-Präsenz.
Hochwertige, relevante Backlinks bleiben wichtig, aber Vorsicht vor toxischen Backlinks (z.B. können das gekaufte sein, oder Einträge in nicht relevante Verzeichnisse, von überoptimierten Websites, von Spam-Websites): Diese können die Rankings erheblich schädigen (Chain Reaction). Das war aledingsschon bekannt und Google Praxis seit längerem.
Nutzersignale als Top Ranking Faktor
Eine der wichtigsten Erkenntnisse also: Ja, Google nutzt Nutzersignale stärker als bislang zugegeben. Diese „user signals“ sind vor allem Daten aus Google’s Chrome-Browser: Was wird von wem in welcher Reihenfolge angeklickt, vom welchen Suchergebnissen springen User schnell zur Suche zurück, bei welchen Seiten verbleiben sie um wieviel länger, auf welchen Seiten klicken sie weitere Links an?
Es lohnt sich daher, sich in den Statistiken wie Google Analytics oder eTracker das Verhalten der Besucher genauer anzuschauen und jenseits reiner Besucherzahlen oder Aufrufzahlen einzelner Seiten besonderen Wert auf dieses „Engagement“ zu legen, das die Besucher im Idealfall zeigen.
Die User-Signals ergänzen also tatsächlich die Bewertung des Content, der sich aus den klassischen SEO-Faktoren wie den Inhalten der Seite selbst (On-Page Faktoren), der Site insgesamt und dem Backlinkprofil (und anderen Off-Page Faktoren) ergibt.
Crap? Google hatte es bestritten
Ein direkter Einfluß dieser User Signals war seitens Google bislang heruntergespielt worden, z.V. von John Mueller und Garry Illies, etwa 2019 wie bei Beantalk berichtet:
Dwell time, CTR, whatever Fishkin’s new theory is, those are generally made up crap.
Garry Illies, Quelle: Beanstalk, 2019
Rand Fishkin hatte schon länger immer wieder, u.a. bei Moz.com, auf die Wahrscheinlichkeit hingewiesen, dass Google diese Signale tatsächlich nutzt. Und zwar nicht nur zur Weiterentwicklung der Suchalgorithmen, wie Google eingeräumt hatte, sondern auch zur konkreten Bewertung von Seiten und Sites für deren Ranking-Position in den Suchergebnissen.
Aus der eigenen Praxis mit betreuten und beobachteten Websites hatte die Vermutung über den Einfluß dieser User Signals schon lange Gültigkeit. Deshalb habe ich meinen Kunden seit Jahren etwa zu Inhalten mit Nutzer-Mehrwert, mit nützlichen internen Verlinkungen und mit transparenter Website-Struktur und -Navigation geraten. Die Suchmaschinenoptimierung ist, wie ich öfter geschrieben habe, in erster Linie eine redaktionelle Aufgabe, erst in dritter, vierter Linie eine technische.
Was wurde im Google SEO Leak sonst noch bestätigt?
- Google Quality Rater Feedback: Das Feedback von menschlichen, vertraglich mit Google verbundenen „Quality Ratern“, wird in den Datencentern tatsächlich als ein Ranking-Faktor zur Verfügung gestellt. Dieses menschliche Rating kann wohl direkt abgerufen werden und – in noch unbekannter Gewichtung – ins Ranking einfließen.
Rand Fiskin: „The fact that it’s in there is it’s shocking, quite quite shocking.“
Übrigens ist wohl Cyrus Shepherd einer dieser menschlichen Google Quality Rater – auch ihn habe ich in diesem Artikel von 2015 zitiert. Der Titel seines im Blog von moz.com veröffentlichten Artikels, den ich zitiert hatte, lautete: „SEO Ranking Factor #1 is Satisfaction„. - Es gibt „White lists“ – Google winkt bestimmte, mit anerkannter Autorität ausgezeichnete Websites nach oben durch. Das bezieht sich insbesondere auf die Themen Medizin und andere, wissenschaftlich verifizierbare Forschungen und Inhalte, gerade mit breiterer wissenschaftlicher Community – den Wissenschafts-Mainstream sozusagen. Umgekehrt muss man wohl sagen – meine Interpretation – dass Websites, die sich außerhalb anerkannter Lehrmeinungen bewegen (Homöopathie, COVID-Themen, Grenzwissenschaften) eine Art Malus oder gar Nicht-Berücksichtigung erfahren könnten. Einerseits ist es eine gute Sache, wenn Verschwörungstheorien aus den Fake-News-Manufakturen in Google nach hinten sortiert werden. Andererseits: Entscheidet aber Google hier, was wahr ist oder als wahr gilt – maßt Google sich das an?
- Toxic Backlinks existieren tatsächlich. Das war in der SEO Community vermutet worden, und es gibt Business-Modelle rund um Tools zur Entdeckung und Vermeidung bzw. Beseitigung toxischer („giftiger“) Backlinks von Dritten. Toxisch bedeutet: Diese Backlinks sind vergiftete Empfehlungen – vergiftete Geschenke. Vielleicht von Wettbewerbern beauftragt? Die Anbieter entsprechender Tools und einige SEOs mögen sich hier bestätigt fühlen. Aber: Ist Google nicht clever genug, um toxische Backlinks selbst zu identifizieren? Das war bislang meine Ansicht. Dazu muss ich sicher nochmal nachforschen…
- Google könnte die Anzahl bestimmter Website-Typen in den Suchergebnissen beschränken. Beispiel: Zu bestimmten Reisedestinationen werden nur ein bestimmter Anteil an Reise-Blogartikeln angezeigt, ein anderer bestimmter Anteil von kommerziellen Reiseunternehmen, ein weiterer Teil evtl. von Wikipedia oder Fluginformationen.
Zu den weiteren Entdeckungen gehört, dass es viele Module und Funktionen gibt, die Erwähnungen oder citations enthalten. Im Grunde genommen das Wort oder die Phrase, die mit einer Entität in Verbindung steht, wie zum Beispiel meinem Namen, Rand Fishkin, oder dem Namen meiner Firma, SparkToro. Und dann könnten diese Erwähnungen, wenn sie im Internet gemacht werden, die Suchrankings ähnlich beeinflussen wie Links. Wir wissen es nicht genau. Ich würde sagen, das ist tatsächlich einer der Bereiche, in die wir uns wirklich vertiefen müssen.
- Ein weiterer faszinierender Aspekt, ist die Idee, dass Seitentitel Auswirkungen auf die gesamte Site haben. Sehen Sie sich das an. Es gibt einen Title-Match-Score für die Site, nicht nur für die einzelnen Seiten. Dies gilt auch für etwas, das als „Seite zu VEC“ bezeichnet wird. Es gibt eine Site zu VEC. Viele Dinge, von denen SEOs dachten, dass sie seitenspezifisch seien, sind in Wirklichkeit Signale für die gesamte Site. Der Begriff site2Vec bezieht sich auf eine Technik zur Repräsentation von Webseiten in einem mehrdimensionalen Vektorraum, ähnlich wie Word2Vec für Wörter verwendet wird. Diese Technik stammt aus dem Bereich des Natural Language Processing (NLP) und Machine Learning und wird genutzt, um die semantische Ähnlichkeit zwischen Webseiten zu messen und darzustellen.
Google API Leak: Danke für die Bestätigung
Ich persönlich folge und lese Rand Fishkins Blogposts sowie viele seiner „Whiteboard Friday“ SEO-Videos seit langem. Ich nehme seine Theorien seit mindestens 2014 ernst und handle vor diesem Hintergrund entsprechend für meinen Content und die SEO Beratung meiner Kunden.
Einige der von Rand Fishkins formulierten SEO Maximen (sein Artikel vom 22.10.2014) habe ich auf diesem Blog schon 2014 „So sehr ändern sich Google und SEO auch nicht“ zitiert:
- „Sei Hilfreich“ – Biete eine geeignete Antwort auf die Sucheingabe des Besuchers
- „Biete einzigartigen Mehrwert“ – Ganz besonders biete wertvolle, sonst nicht zugängliche Informationen
- „Benutzerfreundlichkeit“ – sei leicht und angenehm auf allen Geräten zu lesen
Es hat nun lange gedauert, und es brauchte den Leak der Google-internen API Documentation vom März / Mai 2024, um die Umsetzung des Möglichen und Wahrscheinlichen durch Google jetzt zu bestätigen. Von den 14.000 geleakten internen Algorithmus-Snippets bezogen sich übrigens 8.000 auf die Google-Suche.
Der Google Leak und Google’s KI-Suche
Der Google API Leak von März 2024 und die Entwicklungen rund um Google Search Experience (SGE) und Gemini stehen durchaus in einem interessanten Zusammenhang.
Die im Leak offenbarten Ranking-Faktoren und Googles Fokus auf Qualität, Relevanz und Nutzerorientierung passen gut mit den Zielen von Googles KI Suche zusammen. Die traditionellen SEO-Faktoren bleiben wahrscheinlich wichtig, werden aber durch KI-gestützte „Erkenntnisse“ ergänzt und nachgetunt, um die KI-Texte aus den besten Quellen zu generieren und ein paar ausgewählte Suchergebnisse mit Links dazu zu servieren.
Fazit
Viele bereits als Best Practices vermutete und eingesetzte Methoden für Content-Strategie und Suchmaschinenoptimierung sind tatsächlich Teil der Google-Algorithmen. Man kann weiter daran festhalten, was Cyrus Shepherd wie schon oben zitiert gesagt hatte:
„SEO Ranking Factor #1 is Satisfaction“.
Wir wissen ja: Cyrus ist wohl einer menschlichen Google Quality Rater – er muss es wissen
Unsere Aufgabe als Content Marketeting- und SEO Berater:
Klar machen und dabei helfen, dass Websites und Shops potentielle Besucher zufriedenzustellen und ihre Erwartungen bestenfalls sogar übertreffen, und das auf ehrliche, integre Weise.
In Zeiten stärkerer AI-Einflüsse können wir mit gemeinsam mit den Website- und Shopinhabern auch darüber nachdenken, wie wie über die reine Zufriedenheit hinaus die Benutzer auch begeistern können – im Kürzel UX steht nicht nur Benutzer-Erfahrung, in Experience steckt auch Erlebnis. Doch dazu ein andermal.
Bildnachweis, plus eigene Bearbeitung:
https://www.istockphoto.com/de/portfolio/kanawat19
Neueste Kommentare