Googles neues Reporting Tool – das Data Studio

Daten sammeln ist eine Sache. Diese dann so auszuwerten, dass sie einen Sinn und Nutzen ergeben, eine ganz andere. Dafür braucht es eine Software, die Daten so aufbereitet und darstellt, dass man die Ergebnisse schnell analysieren und nachvollziehen kann. Google hat mit der 360 Suite und Analytics bereits mächtige Instrumente geschaffen, mit denen Daten gesammelt, zusammengeführt und ausgewertet werden können. Allerdings war diese Form der Berichtserstellung bisher nicht besonders dynamisch und teilweise doch recht unflexibel. Von Interaktivität ganz zu schweigen. Mit dem neuen Google Data Studio bringt das Unternehmen nun ein Datenmanagement-Tool auf den Markt, dass die genannten Punkte erfüllen und auch Daten optisch ansprechend aufbereiten soll.

Was verbirgt sich hinter Googles Data Studio?

SEO 2017 und Rückblick 2016 (Vortrag Recap)

Für jene, die nicht an unserem Agenturevent mit Doppelvortrag am 23.11.2016 teilnehmen konnten, haben Christian und ich unsere Vorträge als Blogbeiträge zusammengefasst. Den Beitrag „Was kostet SEO“ finden Sie hier: https://www.seonative.de/was-kostet-seo/
Ich habe in meinem Vortrag 3 Themen behandelt: SEO Rückblick 2016, Tipps und Trends aus der alltäglichen SEO Arbeit und einen Ausblick in die Zukunft.

SEO Rückblick 2016

SEOkomm 2016 Recap: Die ultimative Zusammenfassung

Am Freitag den 18. November waren Matthias und ich zum ersten Mal zu Gast auf der SEOkomm 2016 im schönen Salzburg. Organisiert war die Veranstaltung in drei zeitgleich stattfindende Tracks zu je 40 min, die sich entweder an Einsteiger oder fortgeschrittene Zuhörer richteten. In diesem Beitrag haben wir die wichtigsten Erkenntnisse zusammengefasst und berichten von unseren Eindrücken. Alle die nicht dabei sein konnten finden hier außerdem die zugehörigen Präsentationen.

SEO Indexierungsmanagement

Ein sauberes und durchdachtes Indexierungsmanagement ist die Grundlage für gute Rankings in den Suchmaschinen. Leider wird dieser sehr wichtige SEO-Aspekt von vielen Website-Betreibern nicht ausreichend beachtet. Dabei bringen sämtliche OnPage- und OffPage-Maßnahmen gar nichts, wenn nicht zuvor eine saubere Indexierbarkeit der Website gewährleistet wird.

Im Folgenden stellen wir eine Übersicht in Form einer Checkliste zur Verfügung, mit welcher die wichtigsten Faktoren zum Thema Indexierung Management abgearbeitet werden können. Die Reihenfolge der Punkte muss natürlich nicht unbedingt so eingehalten werden.

Das Prinzip der UTM Parameter

UTM Parameter sind eine sehr gute Möglichkeit, die Wirkung von Onlinemarketingmaßnahmen in Google Analytics genau zuordnen zu können. Während das Funktionsprinzip von UTM Parametern leicht verständlich ist, tun sich viele mit der genauen Bedeutung der einzelnen Parameter schwer. Dafür haben wir hier eine Übersicht erstellt, die die Zusammenhänge visualisiert.

UTM Parameter Diagramm

Folgende Parameter gibt es

Campaign (erforderlich): Der übergeordnete Name der Kampagne.

Medium (erforderlich): Sollte genutzt werden, um die verschiedenen Kanaltypen zu segmentieren. Social Media, Anzeigen (im Beispiel CPC), Blogs, Email usw. Es sind übrigens auch Offline-Medien denkbar, z.B. mit QR Codes.

Source (erforderlich): Der möglichst verständliche Name des jeweiligen Kanals. In dem Diagramm gibt es beim Medium „CPC“ als Source Google und Bing.

Content (optional): Sollte genutzt werden, um Inhaltliche Elemente einer Quelle zu unterscheiden. Besonders bei Emails ist das interessant: Klickt der Leser auf das Firmenlogo, auf den Button oder auf das Produktfoto?

Term (optional): Wird im allgemeinen dazu verwendet, um einen Suchbegriff / Keyword zu definieren.

In dem Diagramm-Beispiel würde man also für eine Kampagne mit einer Zielurl insgesamt elf verschiedene URLs mit unterschiedlichen UTM-Parametern erstellen. In der Praxis sind das natürlich weitaus mehr.

Zur Vereinfachung bietet Google selbst das UTM-Tool an: https://support.google.com/analytics/answer/1033867?hl=de

Der Nachteil bei diesem Tool ist, dass die Reihenfolge der Eingabefelder nicht der Logik des obigen Diagramms folgt.

Wichtig ist auch, dass die Parameter case-sensitiv sind. Daher empfehlen wir, grundsätzlich alles klein zu schreiben.

Wenn die URLs zu lang werden (zum Beispiel für Twitter), dann kann man nach der Erstellung der URL einen Shortener wie goo.gl verwenden.

5 Tipps für den Audisto Crawler – Testbericht

Der Audisto Crawler analysiert Webseiten und erstellt Reports unter anderem zu den Bereichen Crawling, Struktur, OnPage und PageRank. Das Besondere ist die Möglichkeit sehr große Webseiten und Shops mit bis zu 50 Millionen Seiten crawlen zu können. Im übersichtlichen Dashboard werden der technische Crawlvorgang und die daraus resultierenden Ergebnisse perfekt kombiniert. Für mein Test-Crawl habe ich einen Online Shop mit bis zu 2 Millionen Seiten crawlen lassen.

Agenturevent bei seonative am 15.06.2016 – Blogvertising & Shopsysteme

Liebe Leserin, lieber Leser,

nach dem Event ist vor dem Event! Im Anschluss an unser letztes „Double-Feature-Event“ im April möchten wir im Juni erneut zu uns einladen.

Am 15.06.2016 ab 11:00 Uhr werden Sie von Chris und Matthias durch den Onlinemarketingdschungel geführt, die geplanten Themen sind:

Was Sie alles über Sitemaps wissen sollten

Eine Sitemap ist eine Auflistung aller einzelnen Seiten einer Website. Sie dient der besseren Indexierung einer Webseite; der Google Bot kann die Inhalte einer Webseite sowie deren Struktur schneller erfassen. Heutzutage ist die Crawling-Kapazität höher, als noch in den Anfängen des Internets, daher hat die Bedeutung der Sitemaps abgenommen. Über eine gute interne Verlinkung kann sichergestellt werden, dass jede (wichtige) Seite der Webseite erreicht werden kann. Dennoch bieten Sitemaps viele Vorteile und der Einsatz ist absolut empfehlenswert.

Google selbst sagt über den Einsatz einer Sitemap folgendes: