Dieser Artikel wurde ursprünglich am 14.02.2017 von Michael Martinez auf seinem Blog „SEO Theory“ im englischen Original veröffentlicht. Da mich dieser Artikel aufgrund seiner bestechenden Schlüsse und seiner Eindringlichkeit nicht mehr losgelassen hat, habe ich mir die Erlaubnis für die Veröffentlichung einer deutschen Übersetzung geholt.
An dieser Stelle noch einmal vielen Dank an Michael Martinez für die freundliche Genehmigung. Möge dieser Artikel nützlich und erleuchtend sein.
Courtesy of Michael Martinez
Bereits seit den 1990er Jahren haben Menschen versucht, die Algorithmen der Suchmaschinen zu verstehen. Sie werden auch nicht aufhören es zu versuchen, obwohl die Algorithmen heute viel komplexer und schwerer zu erfassen sind als früher. Trotzdem (oder gerade aus diesem Grund) sollten Online-Marketer allen inoffiziellen Ankündigungen und Analysen eines Suchalgorithmus-Updates und dessen Auswirkungen mit gesunder Skepsis begegnen. Diese monatlichen und manchmal wöchentlichen Verkündungen eines „Google Updates“ und die „Studien“ zu dessen Auswirkungen sind nicht viel mehr als Scheinanalysen. Im schlimmsten Falle sind es amateurhafte Versuche, hochkomplexe Systeme zu verstehen.
Der Mythos des Google Updates ist das Schlimmste vom Schlimmen, was die Online-Marketing-Community zu bieten hat. Es gibt durchaus frühere Fälle, in denen verschiedene Webseitenautoren ihre Beobachtungen miteinander verglichen haben, um das Argument zu stützen, dass wirklich „ein Update“ beobachtet wurde. Diese Fälle wurden jedoch mit dem Ende des sogenannten „Google Dance“, der monatlichen Verteilung neuer Logik und Daten in alle Google Data Center, obsolet. Als Google damit begann, seine Algorithmen und Indizes kontinuierlich zu aktualisieren (ich sollte nicht „real-time“ sagen, das wäre sehr unpassend), wurden alle bis dahin geltenden Regeln der Algorithmenbeobachtung wertlos.
Alles, was die Web-Marketing-Gemeinschaft über Jahre hinweg in Bezug auf die Entdeckung und Analyse von Auswirkungen der Suchmaschinenalgorithmen gelernt und geteilt hat, wurde quasi über Nacht überflüssig. Und dies fand bereits vor vielen Jahren statt. Warum also spielen die Marketer dieses zwecklose Spiel weiterhin? Nun, lassen wir uns nicht von den irrwitzigen Entscheidungen der Masse aufhalten. Schauen wir uns an, was wirklich heute in der Suche geschehen ist.
Googles Vorstellung eines Updates ist eine andere als Ihre
Im Dezember 2006 schrieb Matt Cutts einen höchst interessanten Blog-Post auf seinem Blog mit dem Titel „Explaining algorithm updates and data refreshes“ („Die Erklärung von Algorithmenupdates und Datenaktualisierungen“). In diesem Artikel fasste er einige wichtige Definitionen für uns zusammen:
- Algorithmenupdates: ziehen typischerweise größere Veränderungen in den Suchergebnissen nach sich. Algorithmen können sich jederzeit ändern, aber spürbare Änderungen kommen tendenziell seltener vor
- Datenaktualisierungen: die Daten innerhalb eines existierenden Algorithmus werden aktualisiert. Veränderungen ziehen geringere Wirkungen nach sich und sind häufig so gering, dass die meisten Menschen sie nicht bemerken. Eine der kleinsten Datenaktualisierungen ist ein
- Indexupdate: neue Indexdaten werden an die Data Center verteilt. Von Sommer 2000 bis zum Sommer 2003 fanden solche Updates in der Regel monatlich statt. Die daraus resultierenden Veränderungen wurden „Google Dance“ genannt.
- Everflux: im Sommer 2003 (der Google Dance namens „Update Fritz“) änderte Google seinen Index, der von da an schrittweise jeden Tag (oder schneller) aktualisiert wurde.
Das Indexupdate gibt es heute nicht mehr, und auch „Everflux“ ist nicht länger richtig. Vieles hat sich in den mehr als zehn Jahren geändert, seit Matt dies alles erklärte.
Googles Vorstellung eines „Index“ ist eine andere als Ihre
Heute betreibt Google verschiedene Indizes, und ich beziehe mich nicht auf die Ebenen innerhalb des Suchindex. Hier sind ein paar Beispiele für Indizes, die Google in den letzten paar Jahren bestätigt hat (ich benutze hier meine eigenen Bezeichnungen). Für die folgenden Definitionen verwende ich das Wort „Index“ gleichbedeutend mit „eine Struktur von strukturierten Daten, die sich auf Web-Suchumgebungsinformationen beziehen“.
Panda Index: der ursprüngliche Panda Index war ein Satz von Regeln, um den Panda Algorithmus zu trainieren, damit dieser Qualitätssignale von Webseiten identifizieren konnte, was Google die Möglichkeit gab, das Web in „qualitativ hochwertige“ und „qualitativ minderwertige“ Inhalte zu trennen. Dieser Satz von Regeln wurde im Laufe der Zeit erweitert. Möglicherweise gibt es auch mehr als einen Satz von „Panda Regeln“. Möglicherweise werden diese Lernregeln mittlerweile nicht mehr benutzt. Der Panda Index war kein Suchindex, der für Live-Anfragen genutzt wurde. Dieser Index wurde nie dafür verwendet die Suchergebnisse von irgendwem zu beeinflussen.
Pinguin Index: Google hat über den Penguin Algorithmus noch viel weniger Informationen veröffentlicht als über den Panda. Google gab uns mit der März-April 2012 „Blogocalypse“ einen Vorgeschmack auf das, was auf uns zukommen würde, als zahlreiche öffentliche Blog-Netzwerke manuell von Googles Web Spam Team abgestraft wurden. Ich denke, dass dies der Zeitraum war, in dem Daten gesammelt wurden, aus denen schließlich Regeln formuliert wurden, um den ursprünglichen Penguin Algorithmus (der nur auf Backlinks auf die Starseite schaute) darauf zu trainieren, spammige Blog-Netzwerke zu entdecken. Nachfolgende Penguin Updates nutzten dann – nach meiner Meinung – neue oder erweiterte Regelsätze.
RankBrain Index: der RankBrain Algorithmus vergleicht die Anfrage, die Sie in Googles Suchfeld eingeben, mit einem Index von früher gestellten Anfragen, die bereits von Googles Algorithmen verarbeitet wurden. Wenn der Algorithmus entsprechende Signale erhält, zeigt RankBrain zu einer Suchanfrage ähnliche Ergebnisse an, wie er es bei einer gleichwertigen früheren Anfrage bereits getan hat. Dieses Verhalten lässt darauf schließen, dass Google einen Index von Suchanfragen und Suchergebnissen betreibt, um die Bearbeitung von Suchanfragen zu beschleunigen. Wir können dies auch den „Query Cache“ („Suchanfragen-Speicher“) nennen, aber ich denke, dass dies zu einfach ausgedrückt wäre. Wir wissen, dass ein solcher Index existiert. Wir wissen jedoch nicht wie er aufgebaut ist, wie groß er ist oder auch nur wie genau er genutzt wird.
Knowledge Graph Index: all die biographischen Auflistungen, die Google in seine Suchergebnisse für berühmte Persönlichkeiten und Orte einfügt sind für eine schnelle Verfügbarkeit gespeichert. Man kann die gleichen Informationen („bio box“) für verschiedene gleichartige Suchanfragen auslösen (z.B. „marie antoinette“, „queen marie antoinette“). Aber nicht jede verwandte Suchanfrage löst den gleichen Knowledge Graph aus („marie antoinette of france“).
Wie oft aktualisiert Google diesen Index? Clevere Köpfe sollten dies wissen wollen, denn dieser Index und andere haben signifikante Auswirkungen auf die Darstellung und Leistung der Suchergebnisse. Auch Bing betreibt verschiedene sekundäre (Offline?) Indizes, die in ziemlich genau der selben Weise genutzt werden wie die von Google.
Ich vermute, dass diese unterschiedlichen Indizes möglicherweise in eine Struktur integriert sind, die wir „Index Cloud“ nennen könnten. Diese könnten quasi als Super-Objekte einer speziellen Klasse von halbintelligenten Datenstrukturen arbeiten. Dabei rede ich nicht von künstlicher Intelligenz, sondern von komplexen Datenstrukturen, die bei Bedarf geschaffen werden können, um eine spezielle Art von Daten vorzuhalten. Diese Datenstrukturen würden ihre eigenen Regeln zu ihrer eigenen Verwaltung aufstellen, obwohl dies sicher kein praktikabler Weg wäre. Wir werden abwarten müssen.
Bing und Google arbeiten mit Semiflux
Everflux ist eine zu einfache Idee. Wenn es nur einen einzigen großen Index gibt, ist es nicht sonderlich schwer Teile davon konstant über eine gewisse Zeit zu aktualisieren, auch wenn dieser Index spezialisierte Sub-Indizes besitzt. Aber ein einziger Index führt zu Herausforderungen, die nicht mit neuen Aktualisierungsmethoden bewältigt werden können. Google und Bing mussten hochspezialisierte Informationen in eine sehr allgemeine Web Index Struktur integrieren. So war es vermutlich die einfachste Lösung einfach spezielle Zeiger (interne URLs) auf die entsprechenden Informationen in den sekundären Indizes zu implementieren als den Hauptindex neu zu designen, um neue Datenformate unterzubringen.
Technisch gesehen besitzt ein Index keine eigenen Prozesse. Stattdessen wird jeder gewünschte Prozess auf den Index angewendet. In der klassischen Computerwissenschaft hat sich jeder Prozess an die Regeln des Index zu halten. Andernfalls würde diese Prozesse Daten lediglich zufällig lesen und schreiben. Jeder erfahrene Programmierer kann ein oder zwei Geschichten darüber erzählen, wie er oder sie bis in die frühen Morgenstunden daran gearbeitet hat, die Regeln eines Index zu umgehen. In den meisten Fällen haben wir das getan, weil der Index beschädigt war. Manchmal mussten wir das tun, weil es unmöglich war, die indizierten Daten „nach Vorschrift“ nach etwas Spezifischem zu durchsuchen.
Ein Suchindex ist (für mich) mehr wie ein Suchsystem. Und ein System enthält Prozesse. Ihre Lieblingssuchmaschine ist wie ein großes Objekt: ein in sich geschlossener Datenraum, der speziellen Regeln folgt, die diesen Datenraum beschreiben und damit verbundene Prozesse, die es Ihnen erlauben, die in diesem Datenraum enthaltenen Daten zu manipulieren. Einige dieser Prozesse sind ausschließlich für Google zugänglich. Einige dieser Prozesse sind für jeden zugänglich.
Semiflux muss sich all dieser Dinge annehmen und die verschiedenen Indizes und Prozesse integrieren. Zweifellos gibt es Menschen bei Google und Bing, die in den Suchfabriken neben großen Datenkesseln stehen und ledliglich auf ein Signal warten, um den Inhalt eines großen schwarzen Kessels in einen anderen zu entleeren. Wo immer es möglich ist, werden diese Prozesse automatisiert. Aber jeder Prozess beginnt in einem grundlegenden Modus und wird von einem Team sorgsam bewacht und beobachtet. Dies wissen wir sicher, denn die großen Suchmaschinen haben es genau so erklärt. Dies ist der Weg, wie neue Indizes und Algorithmen entwickelt werden.
Semiflux ist ein Hybrid aus einem automatisierten Suchsystem, welches sich kontinuierlich selbst aktualisiert und einer Gruppe sekundärer Systeme, die separat gepflegt werden und möglicherweise durch manuelle Prozesse mit dem Hauptsystem verbunden sind. Es gibt keinen Weg festzustellen, wenn jemand etwas zum Hauptindex hinzufügt. Es gibt keinen Weg herauszufinden, wenn jemand mit einem neuen sekundären Index experimentiert. Semiflux stellt sicher, dass alles reibungslos zusammenarbeitet, zumindest soweit es Dich und mich betrifft.
Googler basteln ständig am Suchsystem herum
Google hat seine laufenden Änderungen an den Indizes und Algorithmen jahrelang öffentlich gemacht. Heute, im Jahr 2017, finden Sie sich hoffnungslos im semantischen Durcheinander von „Updates und Indizes“ wieder, wenn Sie nicht in Erwägung ziehen, dass es ein oder mehrere Änderungen an jedem einzelnen Tag gibt, von Montag bis Freitag.
Im Januar 2017 gab es 22 Werktage. Nehmen wir an, dass auch Google-Mitarbeiter den ersten Tag des Jahres frei hatten, bleiben noch 21 Tage, an denen neue Dinge veröffentlicht werden konnten. Und sehr wahrscheinlich gab es in diesem Zeitraum minimum 40 Änderungen. Und dabei handelt es sich keineswegs um Experimente. Google führt kontinuierlich Experimente durch, aber es wird seitens Google ganz offen und offiziell kommuniziert, dass das Suchsystem hunderte Male pro Jahr angepasst und geändert wird.
Diese Änderungen können – im Hinblick auf das gesamte System – größer oder kleiner ausfallen. Wenige dieser Änderungen können in Ausmaß und Folgen mit wirklich großen Algorithmusanpassungen wie Penguin oder Panda verglichen werden. Aber auf Dauer, und sei es nur über einen kurzen Zeitraum von ein paar Wochen, ändern sich die Google-Suchergebnisse einfach nur aufgrund der kumulativen Effekte vieler kleiner Veränderungen. Auch wenn Bing weitaus weniger offen mit der Häufigkeit von Änderungen umgeht, wissen wir dennoch, dass auch dort mehrere Änderungen pro Woche durchgeführt werden. Ich vermute, dass es mindestens zwei Änderungen am Bing Suchsystem pro Woche gibt, vielleicht auch mehr.
Aber die Suchergebnisse von Bing und Google ändern sich konstant noch aus einem anderen Grund.
Web Publisher basteln ständig am Suchsystem herum.
Weder Google noch Bing können kontrollieren, was ich im Web und mit dem Web tue. In jeder Hinsicht kontrolliere ich das Web, weil ich allein entscheide, was ich veröffentliche und wie das Veröffentlichte aussehen wird. Ich bin das stärkste Mitglied im durchsuchbaren Web Ökosystem. Und – ironischerweise – fühlen sich die meisten Online-Marketer machtlos im Hinblick auf die Launen von Bing und Google.
Sie verschwenden Ihre Kraft mit der ununterbrochenen Suche nach den Geheimnissen der Algorithmen. Das größte Geheimnis jedoch war all die Jahre gut sichtbar versteckt: Suchsysteme sind gar nichts ohne Ihren Content. Wenn Sie Ihren Content – und sei es nur ein wenig – ändern, ändern Sie das gesamte System.
Es mag sich anhören wie eine unrealistische Übertreibung. Aber ich versichere Ihnen, das ist es nicht. Menschen tendieren dazu, jede kleine Veränderung am Web mit einem Kieselstein zu vergleichen, der in einen riesigen Teich geworfen wird (oder auch in den Ozean). Aber das ist ein unpassender Vergleich. Wenn Sie auch nur ein Dokument auf irgendeine Art und Weise erstellen, ändern oder löschen, ändern Sie damit das Ergebnis aller Berechnungen, die dieses sich in irgendeinem Suchindex befindliche Dokument beinhalten.
Denken Sie eher an eine große Kiste voller Murmeln. Alle liegen dicht an dicht. Wenn Sie nun eine Murmel drehen, wird diese einen Teil ihrer Energie durch Reibung an die nächsten Murmeln abgeben, die wiederum ihrerseits Energie an die nächsten umliegenden Murmeln abgeben und so weiter. Das Ergebnis ist ein kaskadenartiger Effekt ausgehen von der von ihnen in Bewegung gesetzen Murmel. Aber noch eine andere – sehr subtile – Änderung vollzieht sich, etwas, worüber Marketer niemals nachdenken: die Wahrnehmung der Kiste voller Murmeln ändert sich.
Oder anders ausgedrückt: wenn Sie eine Partie Go spielen und die Farbe einer ganzen Reihe von Steinen ändern, ändert sich damit auch das komplette Muster aller Steine auf dem Brett.
Das selbe geschieht buchstäblich, wenn Sie etwas im Web ändern. Es passiert unbemerkt. Aber genau das ist es, was ich eine „Änderung des Bezugsrahmens“ in der Web-Suche nenne. Wessen Bezugsrahmen sich ändert? Der Bezugsrahmen der Suchmaschine! Sie könnten nun berechtigterweise einwerfen, dass die Veränderung einer einzelnen Seite – und sei sie noch so bedeutsam – lediglich eine sehr kleine Veränderung des Web ist. Und ich stimme Ihnen zu. Aber Sie wissen sehr gut, wo das hinführt.
Berge verfallen fortwährend
Haben Sie je einen Berg tanzen gesehen? Haben Sie jemals einen Berg singen gehört? Geologen beobachten Berge, wie sie sich bewegen und hören den Geräuschen zu, die sie dabei machen. Sie nehmen die Vibrationen auf, die durch die Bewegung der Berge verursacht werden und geben sie beschleunigt wieder. Ziemlich unglaublich. Und jeder Geologe wird Ihnen sagen, dass Berge zu zerfallen beginnen, sobald sie durch die unvorstellbaren Kräfte der Erde aufgetürmt wurden. Berge hören nie damit auf zu zerfallen, bis sie einst vollkommen verschwunden sind. Es ist der natürlich Zerfall der Berge, der sie singen und tanzen lässt.
Diese Bewegungen geschehen nur langsam und unmerklich. Ihr Ursprung ist der natürlich Verfallsprozess: Pflanzen wachsen, Lebewesen bewegen sich, Wind und Regen waschen alles hinfort und die Gravitation lässt Gestein brüchig werden und an den Seiten des Berges abrutschen oder herunterfallen. Wenn man all dies zusammenfasst, erhält man tanzende und singende Berge.
Das Web tanzt und singt wie die Gebirge, ebenso wie Planeten und Gestirne. In jedem Augenblick und ununterbrochen geschehen unzählige Veränderungen im Web und zusammen betrachtet erzeugen sie eine innere Vibration, die grafisch dargestellt werden kann als Bewegung, als 3D-Transformation und auch hörbar als Schall. Jeder Suchindex ist ein Subsystem des Web. Und betrachtet man das Web als Planeten, dann sind Google und Bing die Gebirge. Und genau wie diese verändern sie sich fortwährend. Und genau wie Gebirge zerfallen sie kontinuierlich.
Suchindizes verfallen ununterbrochen
Ich wette, das haben Sie nicht kommen sehen.
Die Veränderungen, die Sie an Ihren Webseiten vornehmen (und an Ihren Accounts in sozialen Netzwerken und an allem, was von Google und Bing indexiert werden kann), stören in jedem Augenblick die Suchsysteme. Es ist beinahe so, als würden diese Veränderungen ungeheuren Druck aufbauen oder als Reibung wirken.
Früher oder später wird irgendjemand etwas tun, was beim Design des Suchsystems nicht vorgesehen war. Vielleicht wird das System noch irgendwie damit umgehen können. Das Suchsystem wird alles entgegennehmen, was immer ihm übergeben wird und es sich einverleiben ohne Notiz davon zu nehmen, ob es Ihre Anforderungen als Web-Publisher damit erfüllt oder die Anforderungen des Suchenden.
Und wenn innerhalb des Systems genügend Dinge schief gehen, muss irgendjemand dieses System reparieren. Manchmal sind Sie derjenige. Manchmal bin ich es. Und manchmal sind es die Ingenieure bei Bing oder Google. Wenn Sie es sich selbst zur Aufgabe machen, Veränderungen an den Suchmaschinen zu identfizieren, wie filtern Sie die ganzen Hintergrundgeräusche der Leute heraus, die Dinge im Suchsystem zerstören (oder reparieren)?
Keine Änderung an einem Algorithmus kann so groß sein, dass sie all die Hintergrundgeräusche in den Daten übertönen kann. Niemand, nicht bei Bing und nicht bei Google, hat eine Methode entwickelt, wie man die Effekte der Millionen Änderungen jeden Tag, welche die Semiflux Suchergebnisse beeinflussen, herausfiltern kann. Es ist nur schwer möglich sie im Nachhinein zu visualisieren. Es ist unmöglich sie in Echtzeit zu visualisieren. Niemand kann das.
Wo Sie ein Update riechen, ist etwas faul
Die Vorstellung, dass Web Marketer mit ihren doch recht einfachen Tools „Updates“ bei Google und Bing entdecken können, ist doch recht naiv. Sie haben keine Ahnung, was Sie entdecken.
Nehmen wir das sogenannte „inoffizielle Google-Update vom 7. Februar“, über das Barry Schwartz bei Search Engine Land und Search Engine Roundtable geschrieben hat. Er hat das nicht selbst herausgefunden. Er berichtete einfach, was er auf Twitter gesehen hat, in der Webmasterworld und in dem ein oder anderen Blog-Post. Die Leute haben irgendeine Art von Veränderung in deren Traffic aus den Suchmaschinen beobachtet. Wir verfolgen hunderte von Websites. Einige davon bekommen sehr viel Traffic. Die meisten Seiten bekommen wenig Traffic. Dennoch sehen wir bei unseren Seiten und den Seiten unserer Kunden eine ganze Menge von Daten.
Ich habe am 7. Februar – oder an den Tagen um dieses Datum herum – nichts signifikantes beobachtet. Ich könnte Ihnen viele Reports zeigen die signifikante Anstiege und Abfälle im Suchmaschinen-Traffic zeigten. Aber dies sind alles normale Vorkommnisse. Wir haben Seiten, die einer saisonalen Schwankung unterliegen. Wir haben Seiten, deren Traffic sich kontinuierlich steigerte, Monat um Monat und über viele Monate. Wir haben Seiten mit normalen wöchentlichen Rythmen. Und diese Zyklen gibt es immer noch.
Der 7. Februar war ein Dienstag. Das bedeutet, dass Google sein Suchsystem an diesem Tage mindestens zwei Mal angepasst hat (obwohl es auch einmal ein oder zwei Tage ohne Änderungen geben kann). So wie Semiflux arbeitet, kann eine bedeutende Änderung Tage oder Wochen benötigen und eine Wirkung zu entfalten, die einige Dutzend Leute dazu veranlasst über „ein Update“ zu bloggen oder zu chatten, was dann jemand wie Barry Schwartz zu sehen bekommt.
Anders als früher, als Google noch weniger Anpassungen am Suchsystem vornahmen, das System noch kleiner war und die Veränderungen noch spürbare Effekte hatten, können Sie heute nicht mehr nur auf der Grundlage dessen, was ein paar Leute sagen, beurteilen, was vielleicht geschehen ist. So funktioniert das nicht.
Warum verändert sich Ihr Google Traffic plötzlich?
Eine der ausgeflipptesten heutigen Praktiken im Online-Marketing ist das Tracking von Rankings. Ich ignoriere sofort jeden, der Veränderungen in den Google Suchergebnissen anhand von Rankings diskutiert. Rankings sagen Ihnen nichts darüber, was mit Ihrer Webseite geschieht. Leute, die über Rankings reden, reden nicht über Verweise aus den Suchmaschinen.
Wenn Ihre Seite von irgendwelchen Veränderungen im Suchsystem betroffen ist, sollten Ihre Zugriffe aus den Suchmaschinen nach oben oder nach unten gehen. Andernfalls war Ihre Seite nicht betroffen. Das sollte eigentlich selbstverständlich sein, aber aus irgendeinem Grund schauen die Leute immer auf ihre Rankings.
Eines ist am Prüfen der Rankings wirklich schlecht. Eigentlich sollte jeder wissen, dass es im Jahre 2017 keine Garantie dafür gibt, dass man die selben Rankings auf zwei Geräten im selben Augenblick zu sehen bekommt. Es gibt eine Millionen Gründe, warum Bing und Google Ihnen teilweise sehr unterschiedliche Suchergebnisse anzeigen, wenn Sie zur gleichen Zeit die exakt gleiche Suchanfrage stellen wie der Kerl neben Ihnen und irgendjemand 1000 Kilometer weit weg. Die Ergebnisse ändern sich aufgrund eines anderen Browsers, eines anderen Smartphones, einer anderen IP-Adresse.
Ihre Suchergebnisse können von einem Standard-Set von Suchergebnissen aus folgenden Gründen abweichen:
- Ihr Endgerät
- Die IP-Adresse, von der aus Sie suchen
- Die Bildschirmgröße Ihres Endgerätes
- Das Betriebssystem Ihres Endgerätes
- Der Zeitpunkt Ihres letzten Log-In
- Cookies werden angenommen (oder auch nicht)
- Sie haben Ihren Browser-Cache geleert (oder auch nicht)
- Sie nutzen eine VPN-Verbindung oder einen Proxy-Server
Das alles sind Signale, die Suchmaschinen dafür nutzen, um Suchergebnisse zu personalisieren. Sie schauen nicht einfach nur auf Ihre Historie und prüfen, ob Sie mobil unterwegs sind oder mit einem Desktop-Computer. Suchmaschinen differenzieren User auf der Basis von Dutzenden, vielleicht hunderten winziger Details.
Und Ihre Rank-Checking-Software ist überflüssig. Mich interessiert nicht, welches Tool Sie dafür benutzen. Wenn der Anbieter eine einzige IP-Adresse verwendet, muss er die Anfragen über einen Zeitraum verteilen. Und in diesem Zeitraum ändert sich das Suchsystem. Wenn der Anbieter mehrere IP-Adressen benutzt, sendet er der Suchmaschine unterschiedliche Signale. Ihr Rank-Checker könnte Webserver oder gekaperte Smartphones nutzen. Die Suchmaschinen werden ihm andere Ergebnisse liefern als Ihnen.
Noch schlimmer: einige Rank-Checker versuchen die Google Suchergebnisse über eine Liste von IP-Adressen von Google Data Centern abzurufen. Irgendjemand hat vor langer Zeit eine Liste mit Data Center IPs veröffentlicht. Und die Leute begannen mit Ihren Computern und Rank-Checkern diese IP-Adressen anzusprechen. Google-Mitarbeiter wie Matt Cutts haben jeden gewarnt, dies nicht zu tun, weil die Data Center IPs immer wieder verworfen werden. Und trotzdem gibt es das direkte Prüfen der Data Center IPs bis heute.
Ihre Rankings bedeuten gar nichts.
Sie können (und sollten) einen Blick auf die durchschnittlichen Rankings werfen, die Ihnen die Google Search Console liefert. Aber Sie müssen verstehen, dass sich diese Durchschnittswerte verändern, wenn Sie auf Werte eines Tages schauen oder auf Werte aus 90 Tagen. Während es hilfreich ist, die Trends in den Durchschnittsrankings zu verfolgen, werden Sie keinen Zeitabschnitt finden, der gleichermaßen für jede Seite funktioniert. Sie sollten Rankings so wenig Beachtung wie möglich schenken. Es sind die Referrer-Daten, die wirklich zählen.
Und die Leute ändern weiterhin Seiten und Backlinks
Wenn Sie an Ihrer Seite in den letzten drei Monaten irgendwelche Änderungen vorgenommen haben, dann haben diese Änderungen ganz sicher irgendeinen Effekt auf die Suchergebnisse.
Wenn Ihre Mitbewerer Änderungen in den letzten drei Monaten irgendwelche Änderungen an deren Seiten vorgenommen haben, werden diese Änderungen ganz sicher irgendeinen Effekt auf die Suchergebnisse haben.
Wenn Ihre Mitbewerber Backlinks dazugewonnen oder verloren haben, Backlinks manuell abgewertet haben, neue Werbemaßnahmen veröffentlicht haben oder irgendetwas anderes getan haben, dann wird dies beinahe sicher einen Effekt auf die Suchergebnisse haben.
Das alles geschieht nicht auf einmal. Und wenn Google eine große innovative Veränderung an der Suche ausrollt, werden die Effekte der anderen Veränderungen sich immer noch auswirken. Nicht jeder, der Traffic am 15. Juli hinzugewinnt oder verliert ist vom „15. Juli Update“ betroffen. Das ist einfach unmöglich. Sie sollten es besser wissen, anstatt irgendwelche Beobachtungen einiger an ein und dem selben Tag als Beweis für ein Update hinzunehmen.
Ihre Daten sind durch Hintergrundrauschen verfälscht. Wie filtern Sie dieses Rauschen heraus? Und – nein – große Einbrüche oder Spitzen in Ihren Google Analytics Charts filtern kein Rauschen heraus. Google Analytics Daten können niemals das Rauschen herausfiltern. SIE müssen das Rauschen herausfiltern. Google Analytics, einfach die beste Analyse-Software für das Web, kann das Rauschen nicht für Sie herausfiltern (jede andere Software übrigens auch nicht). Noch schlimmer: je mehr Traffic Ihre Webseite bekommt, desto eher tendiert die kostenfreie Version von Google Analytics dazu ungenauer zu werden.
Wenn Ihre Analyse-Software Ihnen zusammengestellte Daten zeigt, ist die Vertrauenswürdigkeit dieser Daten kompromittiert.
Es ist kein „Update“ nur weil Sie Veränderungen sehen
Dieser Artikel ist nun sehr viel länger geworden als beabsichtigt, aber diese Punkte müssen immer und immer wieder angesprochen werden. Die Leute, die immer wieder das „Update Banner“ hochrecken erzeugen Verwirrung und verbreiten schlechte Informationen.
Das Web Marketing ist ins Chais gestürzt worden durch all den pseudowissenschaftlichen Nonsense, der im Namen der „Analyse“ verbreitet wurde. Schon aufgrund des RankBrain Algorithmus können Sie keine Veränderungen analysieren. Sie können nicht feststellen, welche Links durch den Penguin Algorithmus ignoriert werden. Sie wissen nicht welche Signale irgendeiner der Algorithmen wirklich nutzt. Sie wissen auch nicht, welche Algorithmen die Suchergebnisse beeinflussen, die Ihnen angezeigt werden. Sie können nicht feststellen, wann Google „ein Update“ ausrollt.
Wenn Sie Traffic verlieren, sollten Sie womöglich handeln. Das ist nicht unbedingt erforderlich. Allein wenn Sie einfach nur abwarten, kann der Traffic wiederkehren. Das passiert sehr oft.
Ironischerweise schrecken davor zurück, Veränderungen vorzunehmen, wenn sie warten und warten und warten und nichts geschieht. Es kommt immer der Zeitpunkt, an dem Sie sich selbst die Frage stellen müssen, ob „dieser Traffic aus den Suchergebnissen gut genug für mich ist“. Wenn nicht, ändern Sie etwas. Wenn doch, machen Sie fröhlich weiter. Aber hören Sie damit auf sich darüber Sorgen zu machen, ob Google wieder einmal ein großes Update ausgerollt hat. Oftmals haben sie das ganz sicher nicht getan und es ist nicht wichtig. Es wird nicht von Dauer sein. Keine dieser größen, massiven Veränderungen werden das Tanzen und Singen des Web überstehen.
Pingback: SEOmania Recap KW 07/17 | SEOmania