How To: „Abruf wie durch Google“

Ein aktuelles Rankingproblem eines Kunden machte mich nach längerer Zeit wieder auf das Diagnosetool von Google aufmerksam. Mit der Funktion in den Webmaster Tools, welche unter dem Punkt „Crawling“ zu finden ist, kann man sich aufzeigen lassen, wie der Googlebot eine Seite sieht. Die Funktion „Abrufen“ gibt es schon länger, seit Mai 2014 können Seiten zusätzlich gerendert werden. Das bedeutet, man erhält ein Vorschaubild wie der Googlebot die Seite sieht und kann ggf. Unterschiede zur Sicht des Besuchers erkennen. Bei der Seite des Kunden gab es die Vermutung, dass Google nicht alle Inhalte der Seite lesen und verstehen konnte, da u.a. viel mit JavaScript gearbeitet wurde. Eine Prüfung mit „Abruf wie durch Google“ ergab folgendes Ergebnis:

2015-01-22 16_07_34-Webmaster-Tools - Abruf wie durch Google

Der Googlebot konnte nicht alle Ressourcen der Seite erreichen, dementsprechend war das Vorschaubild nur eine graue Seite. Weiter unten wird aufgelistet, welche Ressourcen aus welchen Gründen nicht abgerufen werden konnten. Und siehe da, zwei Skripte wurden von der robots.txt-Datei blockiert. Doch haben gesperrte CSS- oder JavaScript-Dateien wirklich negative Auswirkungen auf das Ranking? In einem Blogpost empfiehlt Google:

“Wir empfehlen euch daher, dafür zu sorgen, dass der Googlebot auf alle eingebetteten Ressourcen zugreifen kann, die für die sichtbaren Inhalte oder das Layout eurer Website wichtig sind. Zum einen erleichtert euch das die Verwendung von “Abruf wie durch Google”, zum anderen kann der Googlebot dann diese Inhalte finden und indexieren.”

Nach kurzem Anruf beim Kunden wurden die blockierenden Elemente aus der robots.txt-Datei entfernt. Danach war das Rendern ohne Fehler möglich. Eine Woche später hat sich das Ranking von Seite 6 auf Seite 2 wieder erholt.

Was kann man mit der Funktion „Abruf wie durch Google“ noch anstellen?

Zunächst kann man wählen, ob man die Startseite oder eine bestimmte Unterseite abrufen lässt. In der Woche stehen maximal 500 Abrufe zur Verfügung. Danach kann man den Googlebot-Typ auswählen. Hier gibt es folgende vier Browsertypen zur Auswahl:

Webmaster-Tools - Abruf wie durch Google

Danach kann die Seite abgerufen werden (schnelle Variante) oder abgerufen und gerendert werden (eingehende Prüfung). Unterhalb erscheinen die Crawling-Ergebnisse, welche beispielsweise so aussehen können:

2015-02-04 16_06_02-Webmaster-Tools - Abruf wie durch Google

Wenn die Prüfung erfolgreich war, ist der Status „Abgeschlossen“. Weitere Statuswerte:

  • Fehler: Ein Problem von Google (am besten erneut versuchen)
  • Teilweise (bei Rendern): Google konnte nicht alle Ressourcen der URL erreichen
  • Weitergeleitet: Der Server verwies Google während des Aufrufs an eine andere URL
  • Blockiert: Ihre robots.txt-Datei blockiert das Abrufen der URL durch Google

Indexierung bei Google anfordern

Eine weitere nette Funktion ist das Senden von URLs an den Google Index. Kürzlich abgerufene Seiten können durch die Schaltfläche „An den Index senden“ direkt an Google gesendet werden. Danach öffnet sich ein Popup mit zwei Möglichkeiten:

  1. „Nur diese URL crawlen“: Google crawlt erneut die Seite und schickt diese anschließend an den Index (500 Abrufe pro Woche)
  2. „Diese URL und ihre direkten Links crawlen“: Die angegebene URL und die direkt verlinkten Seiten werden erneut gecrawlt. (10 Anfragen pro Monat)

Dadurch können z.B. neu erstellte Seiten manuell und schnell an den Index gesendet werden.

Das Tool bietet zusammenfassend umfangreiche Möglichkeiten rund um das Thema „Crawling und Indexierung“ und kann nicht nur bei Rankingproblemen hilfreich sein. 😉

Seiten bereit für den mobile-first index machen

In einem neuen Blogpost veröffentlichte Google Tipps für Webmaster, wie sich diese auf den mobile-first Index vorbereiten können.

Das neue Ranking von Google wird nicht mehr auf der Desktop-Version basierend ermittelt, sondern auf Basis der mobilen Websites. Für Websites mit Responsive Design wird der neue Index weniger Auswirkungen haben (sofern auch auf Mobile-Geräten alle wichtigen Inhalte angezeigt werden).

Ein Blick in die Logdateien verrät, ob die eigene Seite bereits umgezogen wurde. Mehr Zugriffe des mobilen Googlebots sind hierfür ein eindeutiges Indiz. Grundsätzlich empfiehlt Google das Verwenden responsiver Seiten. Aber natürlich sind auch weiterhin separate, mobile Domains möglich, wobei man hier natürlich auf einige Faktoren mehr achten muss.

Was Sie über das Google Freshness Update wissen müssen

2011 kündigte Google das Freshness Update an, das für Aufruhr unter den SEOs sorgte, da es Einfluss auf die Ergebnisse von 35 Prozent aller Suchanfragen (Achtung, nicht 35 Prozent aller Keywords) verändern sollte. Ziel war es, bei zeitbezogenen Suchanfragen primär aktuelle Ergebnisse zu liefern. Doch was verbirgt sich genau hinter dem Freshness Update?

Gründe für das Freshness Update

Das Internet vergisst nicht, weshalb täglich mehr Daten entstehen und gesammelt werden. In nur einem Jahr wurden mehr Daten produziert als in den vergangenen 5.000 Jahren. Wird der Online-Status einer Seite nicht geändert, bleibt der entsprechende Inhalt erreichbar und auffindbar. Viele dieser Inhalte verlieren mit der Zeit an Relevanz für den Suchenden. Der Algorithmus sollte nun besser erkennen, wann der User ein aktuelles Ergebnis sucht beziehungsweise braucht.

Selbstverständlich bedeutet dies nicht, dass Firmen und Unternehmen nun ständig ihre Website aktualisieren sollen. Nach wie vor gibt es Evergreen Content, der nicht an Relevanz einbüßt.

Bei wiederkehrenden Ereignissen, brandaktuellen Themen oder ständigen Neuerungen greift jedoch der Freshness Algorithmus und bestimmte Inhalte können (kurzzeitig) im Ranking aufsteigen. Interessant und auch ungewöhnlich an dem Algorithmus war, dass es mehr Seiten gab, die von dem Update profitierten, als Seiten die erheblich an Ranking verloren.

SEOkomm 2017 in Salzburg – Recap

Im Anschluss an die OMX fand auch in diesem Jahr die SEOkomm statt. Selbstverständlich ließen wir uns die Veranstaltung nicht entgehen, um uns über die neuesten SEO Trends auszutauschen.

Keynote: Position Zero

In seiner Keynote gab Marcus Tandler von Ryte einen Rückblick auf das vergangene Jahr, das unter anderem von der Umstellung von onpage.org geprägt war. Gleichzeitig wagte er einen Blick in die Zukunft von Google. Auch er vertritt die These, das die CTR in den Suchergebnissen ein Rankingfaktor ist. Fake News ist ein junges Thema, das für Google auch zukünftig noch eine Menge Arbeit bedeuten wird. Hier verwendet Google einen Trustscore; einen Index, der auf einer Wissensdatenbank mit 1,6 Milliarden Fakten beruht, bei denen bereits 271 Millionen mit einer Sicherheit von über 90% wahr bzw. zutreffend sind.

Wie auch letztes Jahr ist Geschwindigkeit und AMP ein wichtiges Thema. AMP hat das Potential, das nächste HTML zu werden. Spannend auch die überspitzte Aussage, dass Google gerne das Web selbst hosten würde, weil Crawling ineffizient und teuer ist. Erklärt aber, warum Themen wie AMP und PWA so vorangetrieben werden.

In fast allen Bereich des Webs findet Wachstum nur noch mobil statt. Daher ist eine wichtige Baustelle die Entwicklung und Etablierung eines Blattform-, Geräte-, Browser- und Zahlungsmethoden-übegreifenden Web Payment Standards.

Datenorientiertes SEO mit Fokus auf die Google Search Console

Sebastian Erlhofer betonte in seinem Vortrag, wie wichtig die Datenauswertung in Bezug auf SEO ist. Eine Aussage, der wir voll und ganz zustimmen können. Aber es muss nicht immer Big Data sein – 99,6% der Unternehmen in Deutschland sind per Definition kleine und mittelständige Unternehmen. Dort gibt es kein “Big Data”. Aber auch mit der Google Search Console, Google Analytics und auch den Server Logs kann man viele Analysen durchführen, die Entscheidungen ermöglichen.

Technisches SEO @ Otto

Patrick Christoph konzentrierte sich besonders auf Indexierungsmanagement und Crawlability. So wird jede Nacht der gesamte Shop gecrawlt um zu prüfen, welche Kategorieseiten neu hinzugekommen sind. Der Indexierungsgrad soll zukünftig bei 99 Prozent liegen, ein Ziel, dass mein bei Otto fast erreicht hat. Nicht indexierte Seiten prüft man  manuell.
Bezüglich der Crawlability möchte man auf eine URL je Content hinarbeiten. Systembedingt gibt es viele Duplikate, die entsprechende Canonicals bekommen. Aber auch Filterkombinationen, die möglich, aber sinnlos sind, wurden deindexiert. Ein Beispiel wäre die “rote Bohrmaschiene”, eine Produktliste, die zwar existiert, aber kein Suchvolumen hat. Start dieser Aufräumaktion war der August 2016, und allein in den letzten 6 Monaten wurden 60% der URLs deindexiert. Das Prinzip lautet: Skalieren, aber mit Qualität. SEOkomm

So schützt du dein SEO vor den Kollegen

Wie bring man Kollegen ohne SEO Kompetenz dazu, auf SEO zu achten? Maike Schultze-Rhonhof berichtete in diesem Zusammenhang darüber, das bei Axa vor der Veröffentlichung neuer Webseiten(-Inhalte) jetzt ein “SEO Approval” durchgeführt werden muss. Eine Checkliste, die jeder Mitarbeiter – egal ob IT oder Marketing – selbst überprüfen kann.  Eine weitere, sehr hilfreiche Maßnahme war, den betreffenden Nicht-SEO Mitarbeiten in Schulungen die Notwendigkeit zu erklären. Denn was einmal im Index ist, kann man nicht mehr rückgängig machen. Da Investitionen in SEO einen exponentiellen ROI in der Zukunft hat, findet das Thema mittlerweile auch beim Vorstand Beachtung.

Linkbuilding & Linkmanagement 2018

Christoph C. Cemper betonte, wie wichtig auch nach dem Pingin Update Disavows sind. Ohnehin riet er massiv zur regelmäßigen Überprüfung des Link Profils. In diesem Zusammenhang sprach Cemper sich auch dafür aus, ältere Disavows zu prüfen, da sich darunter möglicherweise inzwischen gute Domains befinden können.

Fazit

Für uns netzgefährten hat sich die Fahrt nach Salzburg gelohnt. Aber da hatten wir nichts anderes erwartet … Wir freuen uns, das brandneue Wissen mit unseren in Stuttgart gebliebenen Kollegen zu teilen.

Warum sollte eine Webseite unbedingt responsive sein?

Der Großteil der Internetnutzer surft mit mobilen Endgeräten. Damit die eigene Webseite auf Smartphones und Tablets optimal ausgegeben wird, müssen technische Anpassungen vorgenommen werden. Durch den geringeren Aufwand und die flexible Anpassung an verschiedene Display-Größen ist Responsive Design hier oft das Mittel der Wahl. Jedoch gibt es auch Punkte, die man bei der Erstellung responsiver Seiten unbedingt beachten sollte.

Responsive Design hat viele Vorteile

Vereinfacht ausgedrückt bedeutet Responsive Webdesign, dass eine Website automatisch so angepasst wird, dass sie auf jedem Endgerät optimal dargestellt wird und dabei maximal benutzerfreundlich bleibt.

 

Beispiel Responsive Design

Eine Seite die mit Responsive Design passt sich jedem Endgerät an und blendet unwichtige Inhalte aus. Links die Desktop Variante, rechts für mobile Geräte

Die Vorteile von Responsive Design liegen also auf der Hand: Die selbe URL wird auf allen Endgeräten, egal ob Tablet, Smartphone oder PC ausgegeben und immer nutzerfreundlich dargestellt. Bedenkt man, dass auch die Bildschirmgrößen von Smartphones extrem unterschiedlich sind, ist dieser Vorteil gegenüber z. B. einer eigenen Mobile-Domain, die jeweils für verschiedene Display-Größen angepasst werden muss, enorm. Da alles über eine einzige URL läuft, besteht keine Gefahr von Duplicate Content und es geht kein Linkjuice verloren. Zudem muss im Backend nur eine Seite inhaltlich gepflegt werden, was alle Beteiligten entsprechend entlastet. Dies betrifft übrigens auch die SEO Aktivitäten, die sich so auf eine Webpräsenz konzentrieren und bündeln. Andernfalls müssen sowohl für die mobile Seite, als auch die Desktopvariante SEO Aktivitäten erfolgen. Auch die Auswertung via Google Analytics kann so auf eine Präsenz gebündelt und ausgewertet werden.