Google veröffentlicht „TensorFlow“ Technologie als Opensource Software

Künstliche Intelligenz-Wochen bei Google: Nachdem Greg Corrado Ende Oktober in einem Bloomberg Interview über ein neues System namens „RankBrain“ berichtet hat, veröffentlicht Google jetzt „TensorFlow“ als OpenSource Software:

https://googleblog.blogspot.de/2015/11/tensorflow-smarter-machine-learning-for.html

tensorflow logo

Was ist TensorFlow?

TensorFlow ist ein System für maschinelles Lernen. Google selbst nutzt es für Anwendungen, wie die Spracherkennung von Google Now, die Schrifterkennung in Google Translate und die Suche nach Gesichtern und Dingen in Google Fotos. Es besteht also keinerlei Zusammenhang zwischen TensorFlow und Rankbrain, außer das beides Systeme für maschinelles Lernen sind.
Mit TensorFlow erstellt man ein lernendes, neuronales Netzwerk. Das System ist vielseitig skalierbar – vom kleinen Smartphone bis zum Rechenzentrum mit tausenden von Servern.

Was kann man mit TensorFlow machen?

Alles. Oder zumindest vieles. Sundar Pichai, CEO von Google, ist laut eigener Aussage selber gespannt, welche Anwendungen zukünftig dafür gefunden werden:

We hope this will let the machine learning community—everyone from academic researchers, to engineers, to hobbyists—exchange ideas much more quickly, through working code rather than just research papers. And that, in turn, will accelerate research on machine learning, in the end making technology work better for everyone. Bonus: TensorFlow is for more than just machine learning. It may be useful wherever researchers are trying to make sense of very complex data—everything from protein folding to crunching astronomy data.

Grundsätzlich haben Entwickler jetzt die Möglichkeit, diese Technologie für ihre Zwecke zu nutzen. Sei es in Apps für Mobilgeräte oder Webanwendungen. Vielleicht werden zukünftig die Suchfunktionen von CM- oder ERP-Systemen davon profitieren. Interesse könnten auch Anbieter von Stockfotos haben, deren Kataloge mehrere Millionen Bilder umfassen, die nicht alle ausreichend getaggt sind. Oder oder oder … es wird interessant, da bin ich mir sicher.

Content is king – aber bitte interessant mit Bildern & Co. aufwerten

Titelbild Blog Freitag Content-Marketing ist auch weiterhin, neben wichtigen technischen Optimierungen im OnPage Bereich, eine entscheidende Größe, die über den Erfolg einer Webseite und ihrer Sichtbarkeit bei Google entscheidet. Zukünftig geht der Trend deutlich in Richtung Content, der einen Mehrwert bildet, sowie Social Sharing. Mehr zum Thema Content und Social Seeding gibt es am 28.10.2015 in einem ausführlichen Fachvortrag mit dem Thema „Blogmarketing & Social Seeding“ von Patrick Föller, bei uns in der Agentur. Nähere Informationen zu dem Fachvortrag und zur Anmeldung finden Sie hier.

Einer der Grundgedanke von Google ist es, Informationen für die breite Öffentlichkeit verfügbar zu machen. Von Anfang an hat sich Google deutlich vom reinen Webverzeichnis abgesetzt und immer höheren Fokus auf relevante Inhalte gelegt. Darum stehen bei Suchmaschinenoptimierung auch gute und relevante Informationen mehr im Mittelpunkt als nur die reine technische Optimierung von Webseiten. Ziel ist es, Texte SEO relevant und nutzerfreundlich zu gestalten, damit sie das Interesse des Lesers wecken, einen Mehrwert bieten und nicht offensichtlich etwas bewerben. Idealerweise werden neue Inhalte automatisch in den sozialen Netzwerken verbreitet und ziehen somit Verlinkungen, Shares und Aufmerksamkeit nach sich.

Viele Content-Verantwortliche und Blogger stellen sich oftmals die Frage, welche Inhalte die Chance haben überhaupt im Netz wahrgenommen zu werden. Hierbei ist die entscheidende Frage: Was muss der Inhalt bieten, um wahrgenommen zu werden? Mit absoluter Sicherheit sollte er entweder informativ oder unterhaltsam sein.

Verlinkungen oder Shares – was ist momentan der Trend in den sozialen Netzwerken?

Die meisten Inhalte in sozialen Netzwerken bekommen weder Shares noch Verlinkungen. Beiträge, die eine Interaktion hervorrufen, sind immer noch eher geteilte als verlinkte Inhalte. Hierzu wurde dieses Jahr von BuzzSumo in Kooperation mit Moz eine Studie veröffentlicht. Es wurden 100.000 zufällig ausgewählte Posts untersucht, lediglich 50% davon konnten zwei oder weniger Interaktionen aufweisen und insgesamt 75% der zufällig ausgewählten Posts konnten keine externe Verlinkung verzeichnen. Bei einer weiteren Stichprobe mit 750.000 untersuchten Posts hatten über 50% keine externe Verlinkung. Bei allen Veröffentlichungen werden Shares und Verlinkungen nicht gleichmäßig verteilt, einige Top-Performer schöpfen den Großteil der Interaktionen in sozialen Netzwerken für sich selbst ab.

Außerdem gibt die Studie Auskunft über die Korrelation zwischen Shares und Verlinkungen. Es gibt schlichtweg keine. Die Korrelation betrug gerade einmal 0,021, d.h. es gibt kaum einen Zusammenhang. Dies bedeutet wiederum, dass Menschen aus völlig unterschiedlichen Gründen Inhalte teilen. Es kann also kein einheitliches Muster identifiziert werden.

Doch was machen die Top-Performer richtig?

Auch wenn es anscheinend keinen wissenschaftlichen Zusammenhang zwischen Shares und Verlinkungen gibt, können jedoch trotzdem wichtige Faktoren bestimmt werden, welche Inhalte eher geteilt, bzw. verlinkt werden als andere. Häufig sind es meinungsbildende, journalistischen Inhalte, die verbreitet werden. Ein User kann damit seine eigene Meinung in der Community untermauern. Außerdem erhalten Posts mit Daten und Fakten zahlreiche Shares und Verlinkungen.

Hier sind wir auch schon bei der Beantwortung der Frage: Was machen die Top-Performer richtig?! Inhalte, die mit Bildern, Videos oder beispielsweise Infografiken aufbereitet sind, erhalten viel Zuspruch. Der Content kann noch so gut sein und SEO optimiert, ohne Bilder oder weitere Aufbereitungen ist es undenkbar. Auch hierzu liefert BuzzSumo, diesmal in Kooperation mit Okdork.com, Zahlen und Fakten. Verfügt ein Artikel über ein oder mehrere Bilder, wird er doppelt so oft geteilt als ein Artikel ohne grafische Elemente. Bilder bewirken einen erstaunlich positiven Effekt auf den Leser. Das Interesse steigt und Inhalte können besser erfasst werden. Es darf auch etwas überzogen sein. Content und darin eingebaute grafische Elemente, die Emotionen auslösen, haben eine viel höhere Chance geteilt zu werden. Der Grund ist, dass bei positiven Emotionen ein Glücksgefühl entsteht, woran man gerne andere teilhaben lässt. Dabei wird das positive Gefühl wie ein Geschenk an die Community weiter gegeben. Memes sind beispielsweise eine hervorragende Möglichkeit, Content mit Bilder lustig anzureichern.

Meme
Bevor grafische Inhalte verwendet werden, sollte man sich immer vorher vergewissern, dass der Urheber des Inhalts die Einwilligung zur Veröffentlichung gegeben hat. Über Stockphotos können z.B. Fotos und Infografiken gegen eine geringe Gebühr gekauft werden, diese dürfen dann aber auch auf Webseiten und Blogbeiträgen verwendet werden – ganz ohne rechtliche Folgen.

Nur mit der richtigen Vorgehensweise wird die Strategie von Erfolg gekrönt

Nicht nur grafisch aufbereiteter Inhalt führt zum Erfolg und erzielt somit einen besseren Bekanntheitsgrad im Netz, mehr Backlinks und Social Signals. Die damit erhoffte Steigerung der Conversions kann nur mit verlinkungswürdigem Inhalt generiert werden. Dabei sind eine taktische Vorgehensweise, die Auswahl der Zielgruppe, das Thema und die richtigen Keywords entscheidend.

Ohne genau definierte Zielgruppe ist wohl jede Content-Marketing-Strategie zum Scheitern verurteilt. Es ist nicht unbedingt ratsam, dort mitzumischen, wo sich hunderte Konkurrenten tummeln. Content im Umfeld von Randgruppen kann eine gute Strategie sein, um die passende Zielgruppe anzusprechen.

Bei der Themenauswahl ist es sinnvoll hinsichtlich ihrer SEO Tauglichkeit vorzugehen. Die richtigen Keywords sind dabei entscheidend. Mit verschiedene Tools, wie z.B. dem Google AdWords Keyword Planner, können Keywords mit hohem Suchvolumen ermittelt werden. Zudem werden Alternativen angeboten, um die passenden Keywords für Texte herauszufiltern.

KeywordPlanner Blogpost2
Die Qualität einer Webseite spielt für User als auch für Suchmaschinen eine wichtige Rolle. Die Texte sollen einzigartig sein und einen gewissen Mehrwert schaffen. Oftmals wird im Netz fast schon gepredigt, dass Inhalte von Webseiten das Zünglein an der Waage seien und entscheidend für die Sichtbarkeit in der Ergebnisliste bei Google sind. Und das stimmt auch. Mit guten Inhalten können in der gesamten Strategieplanung im OnPage Bereich bestimmte Stellschrauben gedreht werden, sodass die Webseite – sei es ein Onlineshop, die Firmenhomepage oder der private Blog – erfolgreich und sichtbar bei Google ist. Mit der sogenannten WDF*IDF Formel können Webseiten als auch Unterseiten so gestaltet werden, dass sie einzigartig sind und die Kriterien erfüllen, um gut von Suchmaschinen gefunden zu werden. WDF*IDF Tools helfen bei der Überprüfung von Texten auf spezielle Keywords.

Fazit

Content is king – aber reiner Text reicht nicht mehr aus. Es gilt die Devise: Texte müssen SEO optimiert und mit allen grafischen Mitteln aufgewertet sein, um damit Informationen und einen Mehrwert bieten zu können. Nur so besteht eine gute Chance, dass der Inhalt viele Shares und Verlinkungen erzielt, die wiederum die Reichweite und die Reputation bei Google fördern.

 

Weitere interessante Beiträge:

>> Content Erstellung: SEO Texte schreiben & optimieren

>> SEO und Überschriften: Warum ist die korrekte Hierarchie so wichtig?

>> Was kostet SEO & wie Sie die richtige SEO-Agentur finden

 

Profi SEO Tools im Vergleich – Welches Tool liefert die „richtigen“ Daten?

Wenn man die Rankings seiner Website überprüfen möchte, dann scheint dies auf den ersten Blick sehr einfach zu sein. Es gibt unzählige SEO-Tools die Daten zur Sichtbarkeit, Rankings, Rankingveränderungen etc. bereitstellen. Soll es ein kostenpflichtiges Tool sein, dann testet man dieses in der Regel zu allererst bevor man sich entscheidet. Und hier fangen die Probleme an.

Unterschiedliche Tools, unterschiedliche Daten

Egal welches Tool man benutzt, die Daten werden immer voneinander abweichen. Grund hierfür sind unterschiedliche Keywordsets. Sistrix zieht beispielsweise zur Berechnung des Sichtbarkeitsindexes jede Woche 250.000 Keywords bzw. Keywordkombinationen für die Top-100-Positionen heran. Diese Keywords sowie die Anzahl ist bei den anderen Tools nicht identisch und so kommt es zu unterschiedlichen Ergebnissen.

Ein Beispiel: Der Sichtbarkeitsindex von Xovi, Sistrix und Searchmetrics für seonative.de

XOVI

xovi

Sistrix

sistrix

Searchmetrics

searchmetrics

Die Sichtbarkeitskurven weichen teilweise deutlich voneinander ab. Auf diese sollte man allerdings nicht allzu sehr vertrauen, da sie keine große Aussagekraft besitzen. Wenn die eigene Website für nicht relevante Keywords Rankings besitzt, dann besteht hier kein Mehrwert. Die Sichtbarkeitskurven sind somit sehr ungenau.

Eine bessere Aussagekraft über die Sichtbarkeit erhält man bei Betrachtung der relevanten Keywords und deren Ranking. Die einzelnen Rankings für ausgesuchte Keywords variieren zwar auch von Tool zu Tool, allerdings in der Regel nur minimal. Somit eignet sich im Prinzip jedes Tool zur Überprüfung der Rankings. Hundertprozentig genaue Daten sind wird man von keinem Tool erhalten. Es geht aber auch vielmehr um die Beobachtung der Tendenz. Hat man sich einmal für ein Tool entschieden, dann sollte man auch nur dieses verwenden und nicht hin und herspringen, da diese Tendenz dann nicht mehr ablesbar ist.

Vergleich der Rankings für ausgewählte relevante Keywords für seonative.de:

Keywords Xovi Sistrix Searchmetics Tatsächliches Ranking
SEO Agentur 3 4 3 2
SEO  Agentur Stuttgart 4 kein E. 6 4
SEO Blog  21 23 35  38
seo beratung 9 9 9 3
SEO Stuttgart  2 2  3 2
SEO Consulting 32 21 31 18
AdWords Agentur stuttgart 6 6 9 5
Offpage Optimierung 20 22 42 21
SEO Optimierung 27 28 28 27
AdWords Stuttgart 19 20 28 22

Fazit

Dass die tatsächlichen Rankings teilweise stark von den Tool- Rankings abweichen, liegt an der wöchentlichen Aktualisierung der Tools. Für eine tägliche Ranking-Überwachung eignet sich zum Beispiel der Keywordmonitor. Hier können Keywordrankings auf Tagesbasis überwacht werden.

Auf die Sichtbarkeitskurven sollte man sich nicht verlassen, sondern die Rankings der wichtigen Keywords beobachten. Hierbei ist es wichtig, dass man sich für ein Tool entscheidet. Welches Tool man letztendlich wählt ist letztendlich auch vom persönlichen Geschmack abhängig. Jedes Tool hat seine Eigentheiten, bietet unterschiedliche Funktionen, Reportings, Usability etc. Was die Ergebnisse betrifft, kann man mit keinem der Tools etwas falsch machen. Tools sind immer nur Hilfsmittel, aber nicht das Maß aller Dinge. Wem eine wöchentliche Auswertung nicht genügt, der kann auf Tools wie den Keywordmonitor zurückgreifen.

Neu: „Suchanalyse“ in den Google Webmaster Tools

Der bisherige Bericht „Suchanfragen“ wurde gründlich überarbeitet und bietet seit heute jede Menge weitere Informationen und Vergleichsmöglichkeiten. Die Funktion ist noch in der Beta-Phase und bietet auf den ersten Blick die gleichen Daten wie vorher:

  • Impressionen
  • Klicks
  • Klickrate
  • Position
Suchanalyse Bericht Webmaster Tools

Bericht Suchanalyse

Die Darstellung der Daten ist jetzt in einem gemeinsamen Linien-Diagramm sichtbar und kann mit vielen neuen Filtern kombiniert werden um z.B. herauszufinden:

  • Zugriffe über Mobilgeräte vor und nach dem 21. April (Mobile-Update)
  • Anzahl Impressionen von Markennamen in verschiedenen Ländern
  • Welche Seiten haben die höchste/niedrigste Klickrate in den Suchergebnissen

Die Daten sind nach wie vor Durchschnittswerte, aber genauer als im alten Bericht. Viele Agenturen arbeiten damit, deshalb lässt Google die alte Version noch 3 Monate online.

SEO-Campixx 2015 Recap Teil II

Ob Content SEO, Technical SEO, Local SEO, Mobile SEO, Realtime SEO, SEO Reporting, alles wurde auf den beiden Campixx Tagen am 14. Und 15. März thematisiert und noch vieles mehr. So facettenreich die Vorträge sind, so unterschiedlich sind auch die Erwartungen, die Interessen, die Eindrücke sowie die Learnings der einzelnen Teilnehmer. Da bereits sehr viele Recaps über die einzelnen Vorträge verfasst wurden, möchte ich eher auf die für mich interessanten Themen eingehen, von denen ich glaube, dass sie für viele von Interesse sein könnten.

Auswertung bei Keywords „not provided“

Die Kenntnis über die Suchanfragen der Websitebesucher ist für alle Optimierungsmaßnahmen besonders wichtig. Insbesondere die Verknüpfung mit weiteren Daten, wie. z.B. Welche Keywords führen zu den meisten Konversions, über welche Keywords werden die meisten Besucher generiert oder gibt es regionale Unterschiede in der Suche.

Über verschiedene Analyse Tools wie Google Analytics konnte man diese Keywords erhalten und weitere Auswertungen vornehmen. Aufgrund der Wahrung der Privatsphäre der Nutzer hat Google allerdings die Auslieferung der Suchanfragen im Oktober 2011 eingestellt. Nun steht bei der Mehrzahl der Suchanfragen ein „not provided“:

Keywords not provided

Eine Möglichkeit eine Übersicht über die Suchanfragen zu bekommen bieten die Google Webmasertools, allerdings ist hier die Verknüpfung zu den Analytics Daten nicht vorhanden.

Zwar gibt es keine hundertprozentige Lösung für dieses Problem, aber Möglichkeiten diese Keywords zu erhalten, indem man eine Auswertung auf URL-Basis macht und die rankenden Keywords der einzelnen URLs ermittelt.

Crawlability, Crawling Budget & Crawler Control

Eine Voraussetzung dafür dass die eigene Seite in den Google Suchergebnissen für bestimmte relevante Begriffe rankt ist die Crawlabillity, d.h. wie einfach wird es dem Crawler gemacht die Inhalte der Website zu erfassen.

Wichtig ist hierbei, dass:

  • Inhalte nicht für den Google Bot gesperrt werden
  • Die Inhalte mit wenigen Klicks erreicht werden können
  • Alle Links lesbar sind, d.h. Ajax, JavaScript, Frames etc. machen es der Suchmaschine schwer
  • Die Seiten schnell laden
  • Jede Seite einzigartig ist und nicht dieselben Inhalte auf anderen Seiten vorhanden sind.

Wie häufig der Google Crawler die Seite besucht, wieviel Zeit er auf der Seite verbringt und wie tief er die Seite crawlt wird als Crawling Budget bezeichnet. Umso höher das Crawling Budget umso besser. Die Höhe ist abhängig von mehreren Faktoren, hierunter gehören die Anzahl der Backlinks, die Interne Verlinkung, der Page Speed und der Page Rank. Da auch Google nur begrenzte Ressourcen hat, wird hier gewirtschaftet und Prioritäten gesetzt. Ziel sollte sein die Seiten so zu optimieren, dass Google sehr leicht und schnell die wichtigsten URLs erfassen und indexieren kann.

Überprüfen kann man den Crawl Staus in den Google Webmastertools:

crawling

Eine Site Search ist hierfür nicht geeignet! Eine Suche nach „site:www.seonative.de“ würde mehr Ergebnisse liefern als die tatsächlich indexierten Seiten. Bei dieser Abfrage liefert Google alle bekannten URLs aus, nicht nur die indexierten. Weitere Informationen zu technical SEO hat Jan Berens sehr gut erläutert:

Guter SEO Content

Das der Inhalt der Seite für das Ranking relevant ist, ist allgemein bekannt. Was einen guten Inhalt ausmacht definiert allerdings jeder anders. Viel zu häufig stößt man auf Websites die offensichtlich für jede einzelne Keywordvariante spezielle Zielseiten besitzt. Problem hierbei ist, dass der Besucher aufgrund der unterschiedlichen Bezeichnungen und der Suchmaschinentexte die an seinen Bedürfnissen vorbeioptimiert sind, die Orientierung verliert und schnell wieder die Seite verlässt. Dies wird von Google negativ für die Relevanz bewertet. Mario Förster gibt in seinem Vortrag: „SEO Insight Krisensicher Optimieren“ eine einfache Lösung: Für den Besucher optimieren und die Nr. 1 in seinem Thema werden!“ Stichwort ist hier: Epic Content, Inhalte die heraussragend, tiefgründig und ausführlich sind und holistischen Charakter haben, also ein Thema in der Gesamtheit erfassen. Um die Bedürfnisse der Zielgruppe zu ermitteln, bietet sich insbesondere die Analyse von Frage und Antwortportale über das entsprechende Thema an. Nimmt man die relevanten Fragen und Antworten in seinem Artikel auf, so bereichert man einerseits seine Artikel um derzeit aktuelle und für die Zielgruppe wichtige Themen und erzielt zudem ein Ranking im Longtail Bereich. Laut Förster kommen bei 4,5 Millionen Seitenaufrufen 3,27 Millionen über Longtail! Fazit: Inhalte müssen regelmäßig aktualisiert und mit für den Besucher relevantem Content erweitert werden. Im Fokus steht der Mehrwert für den Besucher und die Zufriedenstellung durch interessante und relevante Inhalte.

SEO Tools

Natürlich wurde auch viel über SEO Tools gesprochen und die Möglichkeiten und Grenzen aufgezeigt. Um die eigene Siete crawlen bieten sich insbesondere folgende Tools an:

Der Keywordmonitor ist besonders für die tägliche Überwachung der Rankings zu empfehlen.

Neben den bereits bekannten großen kostenpflichtigen Tools hat Malte Landwehr in seinem Vortrag 45 Tools in 45 Minuten auch weniger bekannte und kostenlose Tools vorgestellt.

Fazit: Natürlich gab es noch viele weitere spannende Vorträge. Aber nicht nur diese, sondern auch der Austausch mit Teilnehmern zwischen und nach den Vorträgen war auf jeden Fall die weite Reise von Stuttgart nach Berlin wert und auch das Fahrrad Outfit für Männer in Größe L, dass ich beim Slotcar Rennen gewonnen habe.