Ich muss nicht erwähnen, dass schon wieder Freitag ist, denn immer, wenn der Recap in diesem Blog einschlägt, ist das ohnehin klar. Also starten wir durch, es gibt diesmal richtig viel Input – wie (fast) jede Woche handlich gepresst und in feinen Häppchen arrangiert.
Wusstest Du schon … ?
Google hat so manchen doch recht bekannten Vertreter. Einer davon ist Gary Illyes. Dieser veröffentlicht seit geraumer Zeit auf Twitter seine „DYK“-Serie (DYK = Did you know). Dabei handelt es sich meist um kleine aber feine Informationen, die zwar oft Basics beinhalten, aber dennoch wertvolle Bestätigungen und Zusatzinfos enthalten, z.B.
- kann der Google-Bot eine existierende robots.txt nicht erreichen (z.B. Code 503), stoppt er sofort den Crawl-Prozess für die ganze Website. Eine fehlende robots.txt ist hingegen kein Problem.
- Die Google Duplicate-Content-Penalty ist ein Mythos. Viele URLs mit den gleichen Inhalten verschwenden jedoch Crawl-Budget und senden möglicherweise negative Qualitätssignale.
- lest eure Texte laut. Klingen sie merkwürdig oder ergeben Sätze keinen Sinn, könnte dieser Text als qualitativ geringwertiger eingestuft werden.
- Schlüsselbegriffe werden unterschiedlich gewichtet, und zwar nicht nur nach ihrer Position auf der Seite, sondern auch nach dem umliegenden Text. Inhalte im Footer haben geringere Bedeutung als Text in der Mitte der Seite.
- Backlinks auf eine Seite sind nicht notwendigerweise eine Voraussetzung für ein Ranking. Inhalte können, sofern Google davon Kenntnis erlangt, auch ohne Links gut platziert werden.
- beim Crawlen werden die meisten Seiten vom Bot gerendert, aber es wird auf nichts „geklickt“.
- die Angabe der ungefähren Anzahl der Suchergebnisse ist eine Schätzung, deren Genauigkeit geringer wird, je mehr potentielle Treffer es gibt.
- das Blocken einer Seite für den Google-Bot durch die robots.txt und zugleich einen NoIndex-Tag ist sinnfrei, weil der Bot das NoIndex-Tag niemals sehen wird.
- der Bot hat keine Probleme mit ein wenig kaputtem HTML. Wer sicher gehen will, dass das Crawlen der Seite reibungslos verläuft, sollte jedoch die Zahl der Fehler gering halten.
Ähnlich wie im letzten Punkt äußerte sich auch Johannes Müller von Google Schweiz. Und er verriet mir weiter, dass die Suchmaschine Inhalte, die sehr fehlerhaft sind, notfalls auch als Text indexiert … er würde dies jedoch trotzdem nicht empfehlen 😉
> Indexierung trotz HTML-Fehlern
Googles Vorstellung eines Update ist eine andere als Deine!
Michael Martinez ist ein durchaus streitbarer Vertreter der Online-Branche und schreckt auch nicht davor zurück, den „Größen“ des Genre ziemlich unverblümt zu sagen, wenn etwas – seiner Ansicht nach – Blödsinn ist. In seinem aktuellen Artikel zum Februar-Algorithmus-Update geht er entsprechend hart mit denen ins Gericht, die sich stets mit Meldungen eines „Google Update“ überschlagen, wenn „Big G“ sich nur einmal räuspert. Er arbeitet auch heraus, warum die Jagd auf und die Diskussion um Update-Signale verschwendete Zeit ist, warum das Tracken von Rankings mehr und mehr zum sinnfreien Zeitvertreib verkümmert und warum es jedem Web-Publisher möglich ist, mit nur einer Seite ein ganzes System zu beeinflussen.
Ich persönlich fand diesen Artikel derart ansprechend, dass ich Michael Martinez erfolgreich um die Erlaubnis gebeten habe, eine deutsche Übersetzung veröffentlichen zu dürfen. Hier gibt’s das englische Original.
> The myth of the Google update
Google indexiert auf unterschiedliche Weise
Google (und auch Bing) betreibt mehr als einen Index. Das ist soweit nichts Neues. Interessant ist jedoch, dass es offensichtlich zwei unterschiedliche Methoden gibt, wie eine Seite indexiert wird – schneller oder langsamer.
> Unterschiedliche Google Indexierungsmethoden
Wen soll man fragen, wenn es um die Auswahl einer guten SEO-Agentur geht?
Diese Frage dürften sich sicher viele Marketingverantwortliche gestellt haben. Jetzt gibt’s einen Tipp von Google höchstselbst – und zwar nicht, wen man fragen kann, sondern wie man eine gute SEO-Agentur erkennt. Insbesondere ist diese Informationen im Hinblick darauf interessant, dass Google selbst SEO-Agenturen nicht wirklich zu seinen Lieblingsunternehmen zählt. Und solche, die sich veralteter Black-Hat-Taktiken bedienen, um den Algorithmus mit unlauteren Machenschaften auszutricksen, schon einmal aus nachvollziehbaren Gründen gar nicht.
> Googles Empfehlung zum Finden der richtigen SEO-Agentur
JSON … war das nicht der Typ aus „Halloween“?
Natürlich nicht! Es geht um die Auszeichnung einer Seite mit strukturierten Daten. Bisher werden die meisten, die sich mit dem Thema beschäftigt haben, wohl in mühevoller Kleinarbeit „itemprops“ und „itemtypes“ in die HTML-Tags eingestreut haben, um so etwas wie eine logische Auszeichnung zu realisieren. JSON-LD ist viel eleganter, sieht ein wenig wie Javascript aus und nutzt ebenfalls Schema.org als Grundlage. Und MOZ zeigt euch einen guten Einstieg ins Thema. Lesebefehl!
> JSON-LD for beginners