Infografik: Google Algorithmus Updates 2011 – 2015 / 2 Poster zu gewinnen

AusGoogle Updates 2011 - 2015sehen und Algorithmus der Google-Suche haben sich in den letzten Jahren stark gewandelt. Dem Suchmaschinen-Marktführer wurde zuletzt in der Internet Word eine zunehmende „Janusköpfigkeit“ bescheinigt. Gemeint ist, dass aus der Suchmaschine immer mehr eine Findmaschine wird, die die erwünschten Ergebnisse direkt – beispielsweise in Form eines Knowledge Graphs – anzeigt, ohne, dass die Seite der Informationsquelle aufgerufen werden muss. Dennoch bleibt Webseitenbetreibern keine andere Wahl, als sich den Regeln der Suchmaschine zu beugen, bei einem Marktanteil von 94,88 % (2014, Deutschland).

Bereits vor zwei Jahren haben wir in einem Blogartikel eine Infografik veröffentlicht, die die Entwicklung der Suchmaschine als Fahrt ins Grüne darstellt. Damals eher zweckmäßig begründet verläuft dabei die Reiseroute nicht gerade, sondern in Schlangenlinien. Bei unserer Neufassung der Grafik zeigt sich, dass die Entwicklung von Google Search in einigen Punkten nicht unbedigt geradlinig verlaufen ist…

Beispiele: Wurden die Suchergebnisse vor Juni 2014 durch Autorenbilder und –kennzeichnung bedeutend hervorgehoben, verschwand zu diesem Zeitpunkt das Autorenbild, einen Monat später auch die Kennzeichnung wieder. 2011 wurde die rechte Bildschimhälfte für Previews der ausgewählten Webseite genutzt, folgte ab Mitte 2012 der Knowledge Graph, der Suchergebnisse aus verschiedenen Quellen bereits inhaltlich aufbereitet darstellte, ohne die Informationsquelle öffnen zu müssen.

Unsere neueste Fassung der Grafik zeigt die prägnanten Entwicklungen der Google-Suche von 2011 bis zum Jahreswechsel 2015, und natürlich wird der Pfad vom Google-Zoo, bestehend aus Pandas, Pinguinen, Kolibris und Tauben gesäumt. Wir wünschen viel Spaß mit unserer Infografik.

2 mal verlosen wir unsere Infografik übrigens als Poster im A0-Format.
Um an der Verlosung teilzunehmen, einfach die folgende Frage beantworten und als Kommentar posten:

Was war für Sie persönlich die bedeutendste Änderung bei Google Search zwischen 2011 und 2015? Angabe einer korrekten E-Mail-Adresse (wird nicht angezeigt) dabei nicht vergessen, damit wir die Gewinner benachrichtigen können. Teilnahmeschluss ist der 27.02.2015.

Twitter Ads in Deutschland voll gestartet / Jetzt die neuen Möglichkeiten nutzen

Was in Deutschland bisher nur Großunternehmen auf Antrag möglich war, ist nun auch für kleine und mittelständische Betriebe möglich: Seit Februar 2015 können sie mit Twitter Ads zielgruppenorientierte Werbung schalten. Zeitgleich wurden Tools zur Anzeigengestaltung eingeführt, zum Beispiel eine Drag- and Drop-Funktion zum einfachen Zuschneiden und Einfügen von Bildern. Ein weiteres Tool dient der Erfolgsanalyse.

Blue bird

Vorteile für Unternehmen

Die Nutzung von Twitter Ads soll die Anzeigenschaltung auf der Plattform vereinfachen: Erfahrungen im Werbebereich sind laut Twitter nicht erforderlich, ein Account bei dem sozialen Netzwerk genügt. Unternehmen müssen lediglich ihr Marketing-Ziel definieren, was durch Checkboxen und Formulare vereinfacht wird. Anschließend wählt Twitter Ads das passende Werbeformat aus. Klein- und mittelständische Unternehmen sollen dadurch die Chance erhalten, ihren Bekanntheitsgrad und ihre Umsätze zu steigern. Auch für Großunternehmen bleibt die Marketing-Möglichkeit natürlich interessant.

So funktioniert Twitter Ads

Zunächst wird das Marketing-Ziel definiert. Zur Auswahl stehen
– Twitter Interaktionen (Antworten, Retweets und Favoriten)
– Conversions (Klicks auf einen Link, beispielsweise zur Unternehmenswebseite)
– App-Installationen oder -Interaktionen (Nutzung einer Unternehmens-App)
– neue Follower erhalten
– Leads (E-Mails von Interessenten sammeln)

Trifft keines der angegebenen Marketing-Ziele zu, ist die Definition eigener Kriterien möglich. Für jede Kampagne kann ein Name und eine Laufzeit vergeben werden.
In einer weiteren Eingabemaske wird die Werbebotschaft sowie gegebenenfalls eine Handlungsaufforderung definiert, außerdem kann per Drag and Drop ein Bild eingefügt und zugeschnitten werden. Mit der Eingabe beliebiger Kriterien wie Standort, Geschlecht, Schlagwörtern, Interessengebieten, dem genutzten Endgerät und anderen Kategorien wird die Zielgruppe definiert. Nachdem Angaben zum Budget getätigt wurden, ist die Kampagne startbereit.

Erfolgsanalyse

Die Werbeeinblendung erfolgt an alle Nutzer, die den angegebenen Filterkriterien entsprechen: Indem ausschließlich potenzielle Interessenten angesprochen werden, sollen die Erfolgschancen optimiert werden. Ein Analyse-Tool mit Export-Funktion wertet die einzelnen Kampagnenerfolge aus und zeigt sie grafisch aufbereitet an. Für besonders gut frequentierte Tweets steht außerdem das Tool „quick promote“ zur Verfügung, welches der unkomplizierten erneuten Veröffentlichung dient. Weniger erfolgreiche Kampagnen können anhand der Auswertung angepasst werden, um eine höhere Performance zu erhalten.
Unternehmen, die sich hinsichtlich geeigneter Filterkriterien und der Formulierung einer effektiven Werbebotschaft unsicher sind, können sich vertrauensvoll an unsere Agentur wenden, um die Marketing-Ziele zu besprechen und geeignete Kampagnen zu erstellen.

How To: „Abruf wie durch Google“

Ein aktuelles Rankingproblem eines Kunden machte mich nach längerer Zeit wieder auf das Diagnosetool von Google aufmerksam. Mit der Funktion in den Webmaster Tools, welche unter dem Punkt „Crawling“ zu finden ist, kann man sich aufzeigen lassen, wie der Googlebot eine Seite sieht. Die Funktion „Abrufen“ gibt es schon länger, seit Mai 2014 können Seiten zusätzlich gerendert werden. Das bedeutet, man erhält ein Vorschaubild wie der Googlebot die Seite sieht und kann ggf. Unterschiede zur Sicht des Besuchers erkennen. Bei der Seite des Kunden gab es die Vermutung, dass Google nicht alle Inhalte der Seite lesen und verstehen konnte, da u.a. viel mit JavaScript gearbeitet wurde. Eine Prüfung mit „Abruf wie durch Google“ ergab folgendes Ergebnis:

2015-01-22 16_07_34-Webmaster-Tools - Abruf wie durch Google

Der Googlebot konnte nicht alle Ressourcen der Seite erreichen, dementsprechend war das Vorschaubild nur eine graue Seite. Weiter unten wird aufgelistet, welche Ressourcen aus welchen Gründen nicht abgerufen werden konnten. Und siehe da, zwei Skripte wurden von der robots.txt-Datei blockiert. Doch haben gesperrte CSS- oder JavaScript-Dateien wirklich negative Auswirkungen auf das Ranking? In einem Blogpost empfiehlt Google:

„Wir empfehlen euch daher, dafür zu sorgen, dass der Googlebot auf alle eingebetteten Ressourcen zugreifen kann, die für die sichtbaren Inhalte oder das Layout eurer Website wichtig sind. Zum einen erleichtert euch das die Verwendung von „Abruf wie durch Google“, zum anderen kann der Googlebot dann diese Inhalte finden und indexieren.“

Nach kurzem Anruf beim Kunden wurden die blockierenden Elemente aus der robots.txt-Datei entfernt. Danach war das Rendern ohne Fehler möglich. Eine Woche später hat sich das Ranking von Seite 6 auf Seite 2 wieder erholt.

Was kann man mit der Funktion „Abruf wie durch Google“ noch anstellen?

Zunächst kann man wählen, ob man die Startseite oder eine bestimmte Unterseite abrufen lässt. In der Woche stehen maximal 500 Abrufe zur Verfügung. Danach kann man den Googlebot-Typ auswählen. Hier gibt es folgende vier Browsertypen zur Auswahl:

Webmaster-Tools - Abruf wie durch Google

Danach kann die Seite abgerufen werden (schnelle Variante) oder abgerufen und gerendert werden (eingehende Prüfung). Unterhalb erscheinen die Crawling-Ergebnisse, welche beispielsweise so aussehen können:

2015-02-04 16_06_02-Webmaster-Tools - Abruf wie durch Google

Wenn die Prüfung erfolgreich war, ist der Status „Abgeschlossen“. Weitere Statuswerte:

  • Fehler: Ein Problem von Google (am besten erneut versuchen)
  • Teilweise (bei Rendern): Google konnte nicht alle Ressourcen der URL erreichen
  • Weitergeleitet: Der Server verwies Google während des Aufrufs an eine andere URL
  • Blockiert: Ihre robots.txt-Datei blockiert das Abrufen der URL durch Google

Indexierung bei Google anfordern

Eine weitere nette Funktion ist das Senden von URLs an den Google Index. Kürzlich abgerufene Seiten können durch die Schaltfläche „An den Index senden“ direkt an Google gesendet werden. Danach öffnet sich ein Popup mit zwei Möglichkeiten:

  1. „Nur diese URL crawlen“: Google crawlt erneut die Seite und schickt diese anschließend an den Index (500 Abrufe pro Woche)
  2. „Diese URL und ihre direkten Links crawlen“: Die angegebene URL und die direkt verlinkten Seiten werden erneut gecrawlt. (10 Anfragen pro Monat)

Dadurch können z.B. neu erstellte Seiten manuell und schnell an den Index gesendet werden.

Das Tool bietet zusammenfassend umfangreiche Möglichkeiten rund um das Thema „Crawling und Indexierung“ und kann nicht nur bei Rankingproblemen hilfreich sein. 😉

Wir sind umgezogen

Seit unserer Gründung 2011 war die Kreuznacher Straße 62 unser Zuhause. Doch unser SEO-Team ist ständig gewachsen, und so wurde es mit der Zeit eng. Bereits im letzten Jahr haben wir uns daher auf die Suche nach neuen Räumen gemacht und sind fündig geworden – ganz in der Nähe: Wir sind weiterhin auf dem Gelände des Einkaufs- und Bürozentrums Cannstatter Carré beheimatet, ab sofort aber direkt hinter der modernen, geschwungenen Fassade oberhalb des Haupteingangs.seonative im Cannstatter Carré

Unsere neue Adresse lautet: Daimlerstraße 73, 70372 Stuttgart und ist nur noch wenige Schritte vom Regional- und S-Bahnhof Bad Cannstatt sowie der Cannstatter Innenstadt entfernt.

Stadtplanausschnitt aufrufen

Unsere neuen Räume sind geräumig, nahezu perfekt auf unsere Teams zugeschnitten, modern ausgestattet und bieten endlich genügend Platz nicht nur für Beratungs- und Projektgespräche im kleinen Kreis, sondern auch für Seminare und Workshops, die wir in unserem großen Konferenzraum problemlos ausrichten können.

Kommen Sie uns besuchen, um mit uns Ihre Projekte und Aktivitäten zu besprechen. Vereinbaren Sie am besten gleich einen Termin.

Der Google Crawler und das Kaufhaus

kaufhaus-schildWas viele Website Betreiber nach wie vor nicht wissen – nicht jede Seite einer Website wird immer automatisch gecrawlt, geschweige denn indexiert. Man muss den Google Crawler hier etwas an die (virtuelle) Hand nehmen und ihn (oder sie, oder es, um politisch korrekt zu sein) an die virtuelle Hand nehmen. Dies kann durch einen klugen Aufbau der Website ebenso geschehen sowie durch die Beachtung einiger einfacher Grundregeln. Der Crawler bringt pro Website ein (nicht pauschal definierbares) Crawling-Kontingent mit. Es werden also nur so viele URLs gecrawlt, bis das Kontingent erschöpft ist. Dann verabschiedet sich der Crawler wieder. Da man nicht genau weiß, wie hoch das Crawling-Budget für die eigene ist, sollte man also versuchen, den Crawler so zu leiten, dass zuerst vor allem die wichtigen Seiten gefunden und indexiert werden. Weniger wichtige können nachrangig behandelt werden.

Die Website als Kaufhaus

Am besten stellt man sich seine Website als Haus vor. Je größer die Internetpräsenz, desto größer ist das „Haus“. Im Falle von größeren Websites (z. B. Onlineshops etc.) dürfte es sich eher um ein Kaufhaus handeln. Beim Friseur von nebenan ist es wohl die 3-Zimmer-Wohnung. Je größer also das Haus, desto intensiver muss der Besucher (Crawler) geführt werden. Bei kleineren Websites wird in der Regel jede Seite ohne größere Probleme gefunden, sofern die Voraussetzungen stimmen (keine relevanten Seiten durch robots.txt oder per noindex von der Indexierung ausgeschlossen etc.). Nachfolgende Abschnitte konzentrieren sich daher also eher auf die Kaufhaus-Variante.

In einem Kaufhaus gibt es Schilder mit Geschäfts- und Abteilungs-Bezeichnungen (Kleidung, Spielzeug, Schmuck, Nahrungsmittel…), die den Kunden durch das Geschäft „leiten“ und ihm zeigen, wo er was findet (alternativ gibts auch die Ikea-Variante, bei der man linear durch jede Abteilung geleitet wird). Bei einer Website können dies z. B. eine gute Navigation und eine durchdachte interne Verlinkung sein.

XML Sitemap

Dann gibt es in jedem guten Kaufhaus auch Tafeln mit Übersichten über alle Stockwerke und den entsprechenden Geschäften, optimaler-weise auch noch mit Wegbeschreibung. Diese Funktion übernimmt bei einer Website die XML-Sitemap. Sie zeigt dem Crawler also eine Komplett-Übersicht. Bei größeren Websites mit mehreren Sprachen können hier zusätzlich auch noch die jeweils zugehörigen Sprachversionen derselben URL angegeben werden („hreflang“). Bei Websites mit vielen Bildern & Videos können auch hierfür separate Sitemaps angelegt werden. Wenns nicht ganz so viele sind, können diese auch in die normale Sitemap mit aufgenommen werden.

Leider werden auf vielen Websites die Sitemaps nur spärlich oder gar nicht regelmäßig gepflegt. Dabei ist diese einfache Liste ein sehr mächtiges Werkzeug für eine vernünftige Indexierung der eigenen Website. Vor allem bei Websites, die öfter eine Änderung erfahren, sollte die Sitemap mehrmals pro Woche angepasst werden.

Da man sich nicht darauf verlassen sollte, das Google die Sitemap von alleine findet, sollte diese unbedingt nach jeder Aktualisierung über die Webmaster Tools hochgeladen werden: Praktischerweise liefert Google hier auch noch gleich entsprechende Hinweise, sofern die Sitemap fehlerhaft ist. Zusätzlich wird angezeigt, wie viele der eingereichten URLs indexiert wurden. Wenn die Zahl der eingereichten und indexierten URLs zu stark voneinander abweicht, könnte evtl. auch ein Problem vorhanden sein.

Sitemap

Eingereichte XML Sitemap in den WMT

robots.txt

Bei einigen Kaufhäusern gibt es dann noch die Schildchen vor der Tür „wir müssen draußen bleiben“ (mit einem kleinen Bildchen eines süßen Hundes nebendran) und im Gebäude selbst Türen, die mit „privat“ oder „nur für Personal“ beschriftet sind. Diese „du kommst hier net rein“ Funktionen übernehmen bei einer Website die robots.txt bzw. das noindex-Metatag. Über die robots.txt sollte dann wiederum auch die Sitemap verlinkt werden, um dem Crawler direkt auf die Gesamt-Übersicht zu leiten.

Abnehmendes Crawling-Kontigent

Nun können Sie sich den Google-Crawler als ganz normalen Mann vorstellen, der mit seiner Frau durch das Kaufhaus marschiert. Am Anfang ist er noch gut zu haben (volles Crawling-Kontingent), mit der Zeit und der steigenden Anzahl der besuchten Klamotten-Läden wird dieses Kontingent aber immer mehr erschöpft. Spätestens nach dem achten Mode-Geschäft ist das Kontingent dann erschöpft und der Mann verlässt das Gebäude (wenn die Frau nicht will bleibt sie eben dort und muss sehen wie sie nach Hause kommt :D). Wurde der Mann dann zwischenzeitlich auch noch irgendwo zwischen geparkt, z. B. beim Würstchen-Stand, während die Frau schonmal das nächste Mode-Geschäft besucht hat… danach musste der Mann dann vermutlich einige Geschäfte abklappern (404 Error), bis er seine Frau gefunden hat. Dadurch hat sich das Crawling-Kontingent (Geduld) des Mannes weiter dramatisch reduziert, so dass definitiv nach dem achten Geschäft Schluss ist (eigene Erfahrungswerte sind in den Abschnitt mit eingeflossen).

So ist es auch mit dem Google-Crawler. Mit jeder besuchten Seite nimmt das Crawl-Budget (oder Crawling-Kontingent – egal) ab. Wird der Crawler dann zwischenzeitlich auch noch auf  404-Seiten geschickt (= verschwundene Frau), nimmt das Kontingent weiter ab, auch wenn keine existierende Seite dahinter steht. Bei sehr vielen 404-Seiten (und es gibt einige Websites mit unglaublich vielen 404-Seiten) kann man sich also vorstellen, was das bedeutet. Man sollte also die eigene Seite regelmäßig auf 404-Seiten überprüfen (z. B. über die Webmaster Tools unter Crawling -> Crawling-Fehler).

Regelmäßiger Check der Webmaster Tools

Selbstverständlich sollte es für jeden Admin sein (sofern er mit seiner Website in Google gefunden werden will), regelmäßig einen Blick in die Webmaster Tools zu werfen. Dort lässt sich recht schnell erkennen, wenn Probleme bei der Indexierung vorliegen. Zusätzlich sollte man die eigene Website auch hin und wieder in Google „suchen“, z. B. mit der Site-Abfrage. Auch hier lassen sich oftmals Probleme erkennen bzw. Seiten finden, die eigentlich nicht in den Index gehören.

Zum Schluss allen noch ein gutes & erfolgreiches neues Jahr 2015, bleiben Sie uns gewogen! 🙂