Längere Meta Descriptions möglich

Seit einiger Zeit fällt in der Google Suche auf, dass Google in den Suchergebnissen längere Snippet-Texte erlaubt. Bisher waren nur zwei Zeilen möglich (155 bis 160 Zeichen). Diese Regel wurde nun aktualisiert und in der Vorschau auf der Ergebnisseite von Google sind inzwischen drei, teilweise sogar vier Zeilen möglich. Laut den Tools von RankRanger wurden die Snippets im Schnitt von 160 auf 230 Zeichen verlängert. Laut Google können sie sogar bis 320 Zeichen lang sein.

Diese Änderungen bestätigte Google gegenüber Search Engine Land. Dadurch sollen den Nutzern der Suchmaschine aussagkräftigere Snippets zur Verfügung stehen, um so die Relevanz eines Suchergebnisses besser einschätzen zu können. Konkret stehen jetzt bis zu 320 Zeichen zur Verfügung.

Was Sie über den Freshness Algorithmus wissen müssen

2011 kündigte Google das Freshness Update an, das für Aufruhr unter den SEOs sorgte, da es Einfluss auf die Ergebnisse von 35 Prozent aller Suchanfragen (Achtung, nicht 35 Prozent aller Keywords) verändern sollte. Ziel war es, bei zeitbezogenen Suchanfragen primär aktuelle Ergebnisse zu liefern. Doch was verbirgt sich genau hinter dem Freshness Update?

Gründe für das Freshness Update

Das Internet vergisst nicht, weshalb täglich mehr Daten entstehen und gesammelt werden. In nur einem Jahr wurden mehr Daten produziert als in den vergangenen 5.000 Jahren. Wird der Online-Status einer Seite nicht geändert, bleibt der entsprechende Inhalt erreichbar und auffindbar. Viele dieser Inhalte verlieren mit der Zeit an Relevanz für den Suchenden. Der Algorithmus sollte nun besser erkennen, wann der User ein aktuelles Ergebnis sucht beziehungsweise braucht.

Selbstverständlich bedeutet dies nicht, dass Firmen und Unternehmen nun ständig ihre Website aktualisieren sollen. Nach wie vor gibt es Evergreen Content, der nicht an Relevanz einbüßt.


Bei wiederkehrenden Ereignissen, brandaktuellen Themen oder ständigen Neuerungen greift jedoch der Freshness Algorithmus und bestimmte Inhalte können (kurzzeitig) im Ranking aufsteigen. Interessant und auch ungewöhnlich an dem Algorithmus war, dass es mehr Seiten gab, die von dem Update profitierten, als Seiten die erheblich an Ranking verloren.

SEOkomm 2017 in Salzburg – Recap

Im Anschluss an die OMX fand auch in diesem Jahr die SEOkomm statt. Selbstverständlich ließen wir uns die Veranstaltung nicht entgehen, um uns über die neuesten SEO Trends auszutauschen.

Keynote: Position Zero

In seiner Keynote gab Marcus Tandler von Ryte einen Rückblick auf das vergangene Jahr, das unter anderem von der Umstellung von onpage.org geprägt war. Gleichzeitig wagte er einen Blick in die Zukunft von Google. Auch er vertritt die These, das die CTR in den Suchergebnissen ein Rankingfaktor ist. Fake News ist ein junges Thema, das für Google auch zukünftig noch eine Menge Arbeit bedeuten wird. Hier verwendet Google einen Trustscore; einen Index, der auf einer Wissensdatenbank mit 1,6 Milliarden Fakten beruht, bei denen bereits 271 Millionen mit einer Sicherheit von über 90% wahr bzw. zutreffend sind.

Wie auch letztes Jahr ist Geschwindigkeit und AMP ein wichtiges Thema. AMP hat das Potential, das nächste HTML zu werden. Spannend auch die überspitzte Aussage, dass Google gerne das Web selbst hosten würde, weil Crawling ineffizient und teuer ist. Erklärt aber, warum Themen wie AMP und PWA so vorangetrieben werden.

In fast allen Bereich des Webs findet Wachstum nur noch mobil statt. Daher ist eine wichtige Baustelle die Entwicklung und Etablierung eines Blattform-, Geräte-, Browser- und Zahlungsmethoden-übegreifenden Web Payment Standards.

Datenorientiertes SEO mit Fokus auf die Google Search Console

Sebastian Erlhofer betonte in seinem Vortrag, wie wichtig die Datenauswertung in Bezug auf SEO ist. Eine Aussage, der wir voll und ganz zustimmen können. Aber es muss nicht immer Big Data sein – 99,6% der Unternehmen in Deutschland sind per Definition kleine und mittelständige Unternehmen. Dort gibt es kein „Big Data“. Aber auch mit der Google Search Console, Google Analytics und auch den Server Logs kann man viele Analysen durchführen, die Entscheidungen ermöglichen.

Technisches SEO @ Otto

Patrick Christoph konzentrierte sich besonders auf Indexierungsmanagement und Crawlability. So wird jede Nacht der gesamte Shop gecrawlt um zu prüfen, welche Kategorieseiten neu hinzugekommen sind. Der Indexierungsgrad soll zukünftig bei 99 Prozent liegen, ein Ziel, dass mein bei Otto fast erreicht hat. Nicht indexierte Seiten prüft man  manuell.
Bezüglich der Crawlability möchte man auf eine URL je Content hinarbeiten. Systembedingt gibt es viele Duplikate, die entsprechende Canonicals bekommen. Aber auch Filterkombinationen, die möglich, aber sinnlos sind, wurden deindexiert. Ein Beispiel wäre die „rote Bohrmaschiene“, eine Produktliste, die zwar existiert, aber kein Suchvolumen hat. Start dieser Aufräumaktion war der August 2016, und allein in den letzten 6 Monaten wurden 60% der URLs deindexiert. Das Prinzip lautet: Skalieren, aber mit Qualität. SEOkomm

So schützt du dein SEO vor den Kollegen

Wie bring man Kollegen ohne SEO Kompetenz dazu, auf SEO zu achten? Maike Schultze-Rhonhof berichtete in diesem Zusammenhang darüber, das bei Axa vor der Veröffentlichung neuer Webseiten(-Inhalte) jetzt ein „SEO Approval“ durchgeführt werden muss. Eine Checkliste, die jeder Mitarbeiter – egal ob IT oder Marketing – selbst überprüfen kann.  Eine weitere, sehr hilfreiche Maßnahme war, den betreffenden Nicht-SEO Mitarbeiten in Schulungen die Notwendigkeit zu erklären. Denn was einmal im Index ist, kann man nicht mehr rückgängig machen. Da Investitionen in SEO einen exponentiellen ROI in der Zukunft hat, findet das Thema mittlerweile auch beim Vorstand Beachtung.

Linkbuilding & Linkmanagement 2018

Christoph C. Cemper betonte, wie wichtig auch nach dem Pingin Update Disavows sind. Ohnehin riet er massiv zur regelmäßigen Überprüfung des Link Profils. In diesem Zusammenhang sprach Cemper sich auch dafür aus, ältere Disavows zu prüfen, da sich darunter möglicherweise inzwischen gute Domains befinden können.

Fazit

Für uns netzgefährten hat sich die Fahrt nach Salzburg gelohnt. Aber da hatten wir nichts anderes erwartet … Wir freuen uns, das brandneue Wissen mit unseren in Stuttgart gebliebenen Kollegen zu teilen.

Wie kann eine hohe Bounce Rate vermieden werden?

Eine hohe Bounce Rate ist für den Betreiber von Websites nicht nur schlecht, weil sie Conversions und Leads verhindert, sondern sie stellt darüber hinaus auch ein negatives Signal für die Suchmaschinen dar, die dem Nutzer stets die optimale Antwort auf ihre Suchanfrage liefern wollen.


Doch nicht nur aus diesem Grund sollte die Absprungrate so gering wie möglich gehalten werden. Auch wenn es sich bei der entsprechenden Website nicht um einen Shop handelt, soll mindestens der Kunde von einem Unternehmen überzeugt werden oder er die Antwort auf eine Frage gefunden haben. Das Verlassen der Seite zeigt jedoch eindeutig, dass eben genau das nicht passiert ist.

Eine hohe Bounce Rate sollte für jeden Webmaster ein alarmierendes Signal sein.

Erfolgreich bei Amazon – so geht’s richtig

Auch wenn es nicht jedem gefällt: Für Händler führt fast kein Weg an Amazon vorbei. Mehr als die Hälfte aller Produktrecherchen beginnen laut Statista bei Amazon. Schon allein hier zeigt sich das erhebliche Potenzial auf das Händler verzichten, wenn Sie nicht bei dem Dienstleister präsent sind. So gesehen ist Amazon eine große Produktsuchmaschine, bei der man es mit ein paar Tricks auf die vorderen Plätze schaffen kann. Im Gegensatz zu Google sind bei Amazon SEO einige Unterschiede zu beachten.

Google und Amazon: Unterschiede in der Suche

Im Gegensatz zu Google ist die Suchintention bei Amazon klar, der Suchende möchte etwas kaufen. Im Gegensatz dazu möchte Amazon Produkte verkaufen. Dabei ist es übrigens egal, ob es das beste Produkt für den Nutzer ist. Amazon stellt die Produkte nach vorne, die sich am besten verkaufen. Ab Suchergebnisseite 2 finden kaum noch Verkäufe statt (die Suche nach „Digitalkamera“ spuckt übrigens stolze 400 Seiten aus). Darum ist es essentiell effektives SEO bei Amazon betreiben und gegebenenfalls mit SEA-Maßnahmen zu unterstützen. Ein Drittel der bei Amazon indexierten Produkte sind auf der ersten Suchergebnisseite von Google zu finden.