Mobile-Friendly Update am 21.04 – Aktuelles + Seonative-Leitfaden

Mobile Websites von Amazon und Zalando

Google stellt die Segel auf Mobile-Optimierung – am 21. April 2015 kommt das große und bereits langfristig angekündigte „Mobile Friendly Update“, wie wir bereits vor einiger Zeit hier berichtet haben.

Am Ende dieses Artikels finden Sie unseren Leitfaden „Sichtbar im mobilen Web“ zum Download als PDF-Datei.

Wen betrifft das Update?

Kurz – dieses Update betrifft alle! Also sowohl den kleinen Shop, die Affiliate-Seite als auch große B2B-Seiten. Die Zeit sich auf seiner 10 Jahre alten Seite auszuruhen ist also endgültig vorbei.

SEO-Campixx 2015 Recap Teil I

Am vergangenen Wochenende haben ein paar unserer SEO Manager wieder die SEO Campixx in Berlin besucht. Die Konferenz, die dieses Jahr zum sechsten Mal stattgefunden hat, wird zu den besten ihrer Art gezählt. Wir möchten mit insgesamt zwei Beiträgen (der zweite wird kommende Woche auf unserem Blog veröffentlicht) von unseren Eindrücken und den Erkenntnissen aus den vielen interessanten Vorträgen berichten.

Der Google Crawler und das Kaufhaus

kaufhaus-schildWas viele Website Betreiber nach wie vor nicht wissen – nicht jede Seite einer Website wird immer automatisch gecrawlt, geschweige denn indexiert. Man muss den Google Crawler hier etwas an die (virtuelle) Hand nehmen und ihn (oder sie, oder es, um politisch korrekt zu sein) an die virtuelle Hand nehmen. Dies kann durch einen klugen Aufbau der Website ebenso geschehen sowie durch die Beachtung einiger einfacher Grundregeln. Der Crawler bringt pro Website ein (nicht pauschal definierbares) Crawling-Kontingent mit. Es werden also nur so viele URLs gecrawlt, bis das Kontingent erschöpft ist. Dann verabschiedet sich der Crawler wieder. Da man nicht genau weiß, wie hoch das Crawling-Budget für die eigene ist, sollte man also versuchen, den Crawler so zu leiten, dass zuerst vor allem die wichtigen Seiten gefunden und indexiert werden. Weniger wichtige können nachrangig behandelt werden.

Die Website als Kaufhaus

Am besten stellt man sich seine Website als Haus vor. Je größer die Internetpräsenz, desto größer ist das „Haus“. Im Falle von größeren Websites (z. B. Onlineshops etc.) dürfte es sich eher um ein Kaufhaus handeln. Beim Friseur von nebenan ist es wohl die 3-Zimmer-Wohnung. Je größer also das Haus, desto intensiver muss der Besucher (Crawler) geführt werden. Bei kleineren Websites wird in der Regel jede Seite ohne größere Probleme gefunden, sofern die Voraussetzungen stimmen (keine relevanten Seiten durch robots.txt oder per noindex von der Indexierung ausgeschlossen etc.). Nachfolgende Abschnitte konzentrieren sich daher also eher auf die Kaufhaus-Variante.

In einem Kaufhaus gibt es Schilder mit Geschäfts- und Abteilungs-Bezeichnungen (Kleidung, Spielzeug, Schmuck, Nahrungsmittel…), die den Kunden durch das Geschäft „leiten“ und ihm zeigen, wo er was findet (alternativ gibts auch die Ikea-Variante, bei der man linear durch jede Abteilung geleitet wird). Bei einer Website können dies z. B. eine gute Navigation und eine durchdachte interne Verlinkung sein.

XML Sitemap

Dann gibt es in jedem guten Kaufhaus auch Tafeln mit Übersichten über alle Stockwerke und den entsprechenden Geschäften, optimaler-weise auch noch mit Wegbeschreibung. Diese Funktion übernimmt bei einer Website die XML-Sitemap. Sie zeigt dem Crawler also eine Komplett-Übersicht. Bei größeren Websites mit mehreren Sprachen können hier zusätzlich auch noch die jeweils zugehörigen Sprachversionen derselben URL angegeben werden („hreflang“). Bei Websites mit vielen Bildern & Videos können auch hierfür separate Sitemaps angelegt werden. Wenns nicht ganz so viele sind, können diese auch in die normale Sitemap mit aufgenommen werden.

Leider werden auf vielen Websites die Sitemaps nur spärlich oder gar nicht regelmäßig gepflegt. Dabei ist diese einfache Liste ein sehr mächtiges Werkzeug für eine vernünftige Indexierung der eigenen Website. Vor allem bei Websites, die öfter eine Änderung erfahren, sollte die Sitemap mehrmals pro Woche angepasst werden.

Da man sich nicht darauf verlassen sollte, das Google die Sitemap von alleine findet, sollte diese unbedingt nach jeder Aktualisierung über die Webmaster Tools hochgeladen werden: Praktischerweise liefert Google hier auch noch gleich entsprechende Hinweise, sofern die Sitemap fehlerhaft ist. Zusätzlich wird angezeigt, wie viele der eingereichten URLs indexiert wurden. Wenn die Zahl der eingereichten und indexierten URLs zu stark voneinander abweicht, könnte evtl. auch ein Problem vorhanden sein.

Sitemap

Eingereichte XML Sitemap in den WMT

robots.txt

Bei einigen Kaufhäusern gibt es dann noch die Schildchen vor der Tür „wir müssen draußen bleiben“ (mit einem kleinen Bildchen eines süßen Hundes nebendran) und im Gebäude selbst Türen, die mit „privat“ oder „nur für Personal“ beschriftet sind. Diese „du kommst hier net rein“ Funktionen übernehmen bei einer Website die robots.txt bzw. das noindex-Metatag. Über die robots.txt sollte dann wiederum auch die Sitemap verlinkt werden, um dem Crawler direkt auf die Gesamt-Übersicht zu leiten.

Abnehmendes Crawling-Kontigent

Nun können Sie sich den Google-Crawler als ganz normalen Mann vorstellen, der mit seiner Frau durch das Kaufhaus marschiert. Am Anfang ist er noch gut zu haben (volles Crawling-Kontingent), mit der Zeit und der steigenden Anzahl der besuchten Klamotten-Läden wird dieses Kontingent aber immer mehr erschöpft. Spätestens nach dem achten Mode-Geschäft ist das Kontingent dann erschöpft und der Mann verlässt das Gebäude (wenn die Frau nicht will bleibt sie eben dort und muss sehen wie sie nach Hause kommt :D). Wurde der Mann dann zwischenzeitlich auch noch irgendwo zwischen geparkt, z. B. beim Würstchen-Stand, während die Frau schonmal das nächste Mode-Geschäft besucht hat… danach musste der Mann dann vermutlich einige Geschäfte abklappern (404 Error), bis er seine Frau gefunden hat. Dadurch hat sich das Crawling-Kontingent (Geduld) des Mannes weiter dramatisch reduziert, so dass definitiv nach dem achten Geschäft Schluss ist (eigene Erfahrungswerte sind in den Abschnitt mit eingeflossen).

So ist es auch mit dem Google-Crawler. Mit jeder besuchten Seite nimmt das Crawl-Budget (oder Crawling-Kontingent – egal) ab. Wird der Crawler dann zwischenzeitlich auch noch auf  404-Seiten geschickt (= verschwundene Frau), nimmt das Kontingent weiter ab, auch wenn keine existierende Seite dahinter steht. Bei sehr vielen 404-Seiten (und es gibt einige Websites mit unglaublich vielen 404-Seiten) kann man sich also vorstellen, was das bedeutet. Man sollte also die eigene Seite regelmäßig auf 404-Seiten überprüfen (z. B. über die Webmaster Tools unter Crawling -> Crawling-Fehler).

Regelmäßiger Check der Webmaster Tools

Selbstverständlich sollte es für jeden Admin sein (sofern er mit seiner Website in Google gefunden werden will), regelmäßig einen Blick in die Webmaster Tools zu werfen. Dort lässt sich recht schnell erkennen, wenn Probleme bei der Indexierung vorliegen. Zusätzlich sollte man die eigene Website auch hin und wieder in Google „suchen“, z. B. mit der Site-Abfrage. Auch hier lassen sich oftmals Probleme erkennen bzw. Seiten finden, die eigentlich nicht in den Index gehören.

Zum Schluss allen noch ein gutes & erfolgreiches neues Jahr 2015, bleiben Sie uns gewogen! 🙂

10 wichtige Faktoren für bessere mobile Websites

Mobile Websites von Amazon und ZalandoDie Optimierung mobiler Websites bzw. die Nutzung mobiler Seiten überhaupt wird leider nach wie vor von vielen Seitenbetreibern vernachlässigt. Wirklich solide optimierte Seiten, wie sie z. B. im Bild links zu sehen sind, gibt es bislang nur wenige. Aber gerade für Onlineshops und lokal ausgerichtete Seiten sind gut optimierte mobile Seiten aufgrund der ständig steigenden Mobile-Nutzung elementar wichtig. Laut Untersuchungen werden in den USA 94 Prozent aller Suchanfragen mit lokalem Bezug per Smartphone getätigt. Ca. 77 Prozent der mobilen Suchanfragen werden von Orten ausgeführt, an denen auch ein Desktop-PC zur Verfügung steht. Dennoch wird mobil gesucht…

Zuletzt hat Google sogar eine Art „Prädikat“ innerhalb der mobilen Suche eingeführt, mit Hilfe dessen die User erkennen können, ob eine Seite „für Mobilgeräte“ geeignet ist oder nicht.

Werden sichere Seiten mit SSL von Google bevorzugt?

„Sind meine Daten sicher?“ Diese Frage stellen sich viele Internetnutzer und seit dem Datenskandal rund um die NSA-Affäre nimmt das Thema Datensicherheit einen immer größeren Stellenwert ein. Websitebetreiber sollten daher ihre Angebote so sicher wie möglich gestalten. Zum Beispiel mit Secure Sockets Layer (SSL), einem Verschlüsselungsprotokoll, das zur sicheren Datenübertragung im Internet verwendet wird. Manche Websites haben es bereits, viele allerdings auch nicht. Nun kommt in die Debatte um SSL-Zertifikate und HTTPS-Verbindungen neuer Wind. Google gab nämlich kürzlich, nach bereits länger währenden Spekulationen, auf seinem Blog bekannt, dass die Nutzung einer sicher verschlüsselten Verbindung einen Rankingfaktor darstellt. Das bedeutet zunächst einmal nur, dass Google überprüft, ob Websites über ein SSL-Zertifikat verfügen, aus dem sich eventuell ein Rankingvorteil ergeben könnte. Für den Anfang plant Google dabei eine Art Übergangsfrist, in der die SSL-Zertifizierung nur ein schwacher Rankingfaktor bleiben soll. Zukünftig aber soll dieser ausgebaut und mit mehr Gewicht versehen werden – ganz im Sinne der Sicherheit des gesamten Internets. Allerdings schränkt das Unternehmen die Brisanz der Ankündigung auch ein: Immerhin seien bisher weniger als ein Prozent der globalen Suchanfragen überhaupt betroffen.

Sicherheit als Top-Thema der Zukunft

Die Logik von Google ist dabei recht einfach: Websitebetreiber, die den Aufwand für eine SSL-Zertifizierung ihres Angebots in Kauf nehmen, werden vermutlich auch hochwertige Inhalte zu bieten haben. Experten fürchten nun allerdings, dass diese Logik sich mit der Bekanntgabe, dass SSL-Zertifikate als Rankingvorteil gelten, umkehrt und Zertifikat vor Content geht. Google hingegen betont, dass dem Inhalt weiterhin eine wichtigere Rolle in Bezug auf das Ranking zugemessen wird, als der Verschlüsselung der Website.

Ungewöhnlich ist zumindest aber, dass Google so offen über seine Rankingfaktoren spricht. Möglicherweise hat die Bekanntmachung etwas mit dem NSA-Skandal zu tun, denn Datensicherheit und Verschlüsselung wurden von dem Konzern zu einer der Top-Prioritäten erklärt und sind Gegenstand intensiver Diskussionen. Deshalb bietet der Suchmaschinengigant nicht nur Best Practice-Beispiele als Orientierung, sondern auch jede Menge Informationen und Hilfestellungen rund um das Thema an.

Umstellen oder nicht?

Google geht mit seinen eigenen Diensten bereits seit längerem mit sehr gutem Beispiel voran, so dass Nutzer Angebote wie Gmail oder Drive sicher verwenden können. Für andere Anbieter ist es nicht ganz so einfach, denn während bei der Erstellung neuer Websites bereits zu einem SSL-Zertifikat geraten wird, zögern Betreiber von bereits bestehenden Websites noch länger. Eine Umstellung auf SSL ist immerhin nicht ganz ohne Aufwand zu bewerkstelligen, so dass viele Webmaster sich fragen, ob die Mühe sich auszahlt. Durch Googles Ankündigung hat sich die Perspektive nun geändert und die Relevanz der sicheren Verbindung nimmt zu – nicht nur aus SEO-Sicht. Die Rankingvorteile allerdings, die eine Umstellung mit sich brächte, können noch nicht als gewiss gelten, weshalb Abwarten vor der Umstellung als die beste Alternative erscheint. Fest steht aber auf jeden Fall, dass die Sicherheit von Websites nun auch hinsichtlich der Suchmaschinenoptimierung eine weitaus größere Rolle spielt. Googles Wunsch ist es, dass mehr und mehr Websitebetreiber ihre Angebote sicher verschlüsseln – durch die Erhebung der SSL-Zertifizierung zum Rankingfaktor wird der Erfüllung dieses Wunsches wohl langfristig auch wahrscheinlicher.