Informationen zu Google Autocomplete/ Google Suggest

Google ist bekanntermaßen die meistgenutzte Suchmaschine der Welt – ca. 4 von 5 Suchanfragen auf der Erde gehen durch den Suchalgorithmus von Google (in Deutschland sogar 9 von 10), über eine Billiarde pro Jahr. Was in Google eingegeben wird, wird registriert und erfasst.Diese Masse an Suchanfragen führt Google seit einigen Jahren mit den Funktionen Google Instant und Google Autocomplete (vorher als Google Suggest bekannt) einem produktiven Zweck zu: Wann immer man eine Anfrage startet, wird der Eintrag in Echtzeit vom Alghoritmus vervollständigt auf der Basis der Popularität bestimmter Suchanfragen (d.h. das Suchvolumen für bestimmte Begriffe), dem Standort des Nutzers, der Aktualität der Suchanfrage und der Google-Historie des individuellen Nutzers.

Das lässt letztlich auch Aussagen über die Relevanz bestimmter Suchbegriffe zu. Was denken die Google-Nutzer (also fast alle Menschen mit Internetanschluss)? Was wollen sie erfahren? Was geben sie in die Suchmaske ein? Wenn man die Menge der Suchanfragen berücksichtigt, ist Google zumindest in dieser Hinsicht grundsätzlich ein guter Indikator für Fragen von allgemeinem Interesse, ob es sich nun um Trends oder dauerhaft Bedeutendes handelt.

Negativ konnotierte Suchanfragen

Hierzulande hat Google Suggest eine gewisse Berüchtigtkeit wegen problematischen Suchanfragen erlangt: Vor einigen Jahren ging Bettina Wulff gegen Google vor, um den Konzern zur Entfernung von Autocomplete-Vorschlägen zu bewegen, die die damalige Präsidentengattin in Verbindung mit dem ältesten Gewerbe der Welt brachten. Ähnlich gelagerte Fälle gab es auch in Frankreich, wo der Name einer Versicherung mit betrügerischen Praktiken verknüpft wurde, oder in Japan, wo der Name einer anonymen Einzelperson mit illegalen Aktivitäten einherging. Sogar eine Unterorganisation der UN richtete eine Beschwerde an Google, weil die Suchmuster der Nutzer weltweit dafür sorgten, dass frauenfeindliche Suchanfragen die Vorschläge für Suchanfragen Frauen betreffend dominierten.

Diese negativen Vorschläge sind aus mehreren Gründen nicht zu unterschätzen: Negative Optionen wecken eher das Interesse von Nutzern als neutrale oder positive, sie können das Bild des jeweiligen Subjekts der Suche schon im Vorfeld beeinflussen, ehe überhaupt auch nur eine Suchergebnisseite aufgerufen wurde, und schließlich können sie ein Bewusstsein für den Gegenstand des Vorschlags entwickeln, das vorher gar nicht vorhanden war (man danke an den erwähnten Fall Bettina Wulff). Im ungünstigsten Fall produzieren negative Suchanfragen entsprechende Autocomplete-Vorschläge, die dann wieder zu entsprechenden Suchanfragen führen und so den Teufelskreis fortführen – es sind schon Fälle bekannt worde, wo nach dem Entfernen eines negativen Vorschlags auch das Suchvolumen für diesen verschwand.

Grundsätzlich versucht Google, das Netz für Suggestionen allerdings etwas engmaschiger zu gestalten, damit zumindest die offensivsten und problematischsten Suchbegriffe nicht zu den Optionen werden.  Neben Vorschlägen gewalttätiger, hasserfüllter und nicht jugendfreier Natur werden auch solche zu Online-Piraterie entfernt sowie solche, zu denen Google rechtlich verpflichtet wurde.

Google Suggest produktiv nutzen

Nun die Frage: Wie kann man sich diese Funktion zunutze machen? Am attraktivsten wäre es natürlich, wenn der eigene Name schon nach wenigen Buchstaben als primärer Vorschlag angezeigt und auch nur mit den positivsten Adjektiven als Suggestionen ausgeliefert würde, aber das wäre wenn überhaupt nur mit umfassendster Manipulation möglich – und die ist, hier sei es nur der Vollständigkeit halber erwähnt, dunkelste Black Hat-SEO.

Bleibt also die Alternative: Wenn man die Google Suggest-Vorschläge nicht dem eigenen Content anpassen kann, passt man den eigenen Content den Vorschlägen an. Das bezieht sich jetzt nicht unbedingt auf die eigene Seite – wenn es sich bei den vorgeschlagenen Begriffen um Eintagsfliegen handelt, wäre es nicht sehr zielführend, diese zu übernehmen; wenn es sich dagegen um solche von dauerhaftem Interesse und mit großem Suchvolumen handelt, ist die Wahrscheinlichkeit hoch, dass man diese bereits integriert hat (wobei es allerdings eine Überlegung wert wäre, Autocomplete als weiteres Standbein für die Früherkennung von Trends zu benutzen).

Mit Google Ads hat man allerdings die Möglichkeit, schnell und unkompliziert auf solche Suchanfragen-Spikes zu reagieren und von dem temporären Suchvolumen zu profitieren – und gleichzeitig weitere Kosten zu vermeiden, wenn der Trend wieder zurückgeht und mit ihm die Menge der Anfragen. Eine weitere Anwendungsmöglichkeit: Was Google geblacklistet hat, macht sich schlecht als Keyword im Content (wenn das eigene Geschäftsmodell nicht gerade auf diesen basiert), aber dafür umso besser als ausschließendes Keyword in den Adwords-Kampagnen.

Aber unabhängig davon, welchen Mehrwert man genau aus Google Autocomplete zieht – es ist auf jeden Fall zu mehr Nutze als nur zur persönlichen Unterhaltung.

UPDATE 13.08.2015

Google hat am 10. August den unautorisierten Zugriff auf die Autocomplete-API abgeschaltet. Für den User hat das keine Auswirkung. Aber viele Tools, welche die Schnittstelle bisher für Ihre Zwecke genutzt haben, verlieren nun ihre Datenquelle. Scheinbar waren Google diese Tools ein Dorn im Auge. Anbieter und SEOs müssen sich mal wieder nach Alternativen umschauen.

Der Google Ads Keyword-Planer im SEO-Test

Seit einiger Zeit ist der neue Google Ads Keyword-Planer verfügbar. Dies wurde bereits seit einiger Zeit von Google angekündigt und passt vom Zeitpunkt her zu den aktuell großen Interface Umstellungen in Google Ads. Da nicht nur unsere SEA-Kollegen von klickwert, sondern auch wir SEOs sehr viel mit dem Keyword-Planer arbeiten, mussten wir uns diesen natürlich sofort anschauen und haben ihn für euch getestet und zeigen Unterschiede zum alten auf.

How To: „Abruf wie durch Google“

Ein aktuelles Rankingproblem eines Kunden machte mich nach längerer Zeit wieder auf das Diagnosetool von Google aufmerksam. Mit der Funktion in den Webmaster Tools, welche unter dem Punkt „Crawling“ zu finden ist, kann man sich aufzeigen lassen, wie der Googlebot eine Seite sieht. Die Funktion „Abrufen“ gibt es schon länger, seit Mai 2014 können Seiten zusätzlich gerendert werden. Das bedeutet, man erhält ein Vorschaubild wie der Googlebot die Seite sieht und kann ggf. Unterschiede zur Sicht des Besuchers erkennen. Bei der Seite des Kunden gab es die Vermutung, dass Google nicht alle Inhalte der Seite lesen und verstehen konnte, da u.a. viel mit JavaScript gearbeitet wurde. Eine Prüfung mit „Abruf wie durch Google“ ergab folgendes Ergebnis:

2015-01-22 16_07_34-Webmaster-Tools - Abruf wie durch Google

Der Googlebot konnte nicht alle Ressourcen der Seite erreichen, dementsprechend war das Vorschaubild nur eine graue Seite. Weiter unten wird aufgelistet, welche Ressourcen aus welchen Gründen nicht abgerufen werden konnten. Und siehe da, zwei Skripte wurden von der robots.txt-Datei blockiert. Doch haben gesperrte CSS- oder JavaScript-Dateien wirklich negative Auswirkungen auf das Ranking? In einem Blogpost empfiehlt Google:

“Wir empfehlen euch daher, dafür zu sorgen, dass der Googlebot auf alle eingebetteten Ressourcen zugreifen kann, die für die sichtbaren Inhalte oder das Layout eurer Website wichtig sind. Zum einen erleichtert euch das die Verwendung von “Abruf wie durch Google”, zum anderen kann der Googlebot dann diese Inhalte finden und indexieren.”

Nach kurzem Anruf beim Kunden wurden die blockierenden Elemente aus der robots.txt-Datei entfernt. Danach war das Rendern ohne Fehler möglich. Eine Woche später hat sich das Ranking von Seite 6 auf Seite 2 wieder erholt.

Was kann man mit der Funktion „Abruf wie durch Google“ noch anstellen?

Zunächst kann man wählen, ob man die Startseite oder eine bestimmte Unterseite abrufen lässt. In der Woche stehen maximal 500 Abrufe zur Verfügung. Danach kann man den Googlebot-Typ auswählen. Hier gibt es folgende vier Browsertypen zur Auswahl:

Webmaster-Tools - Abruf wie durch Google

Danach kann die Seite abgerufen werden (schnelle Variante) oder abgerufen und gerendert werden (eingehende Prüfung). Unterhalb erscheinen die Crawling-Ergebnisse, welche beispielsweise so aussehen können:

2015-02-04 16_06_02-Webmaster-Tools - Abruf wie durch Google

Wenn die Prüfung erfolgreich war, ist der Status „Abgeschlossen“. Weitere Statuswerte:

  • Fehler: Ein Problem von Google (am besten erneut versuchen)
  • Teilweise (bei Rendern): Google konnte nicht alle Ressourcen der URL erreichen
  • Weitergeleitet: Der Server verwies Google während des Aufrufs an eine andere URL
  • Blockiert: Ihre robots.txt-Datei blockiert das Abrufen der URL durch Google

Indexierung bei Google anfordern

Eine weitere nette Funktion ist das Senden von URLs an den Google Index. Kürzlich abgerufene Seiten können durch die Schaltfläche „An den Index senden“ direkt an Google gesendet werden. Danach öffnet sich ein Popup mit zwei Möglichkeiten:

  1. „Nur diese URL crawlen“: Google crawlt erneut die Seite und schickt diese anschließend an den Index (500 Abrufe pro Woche)
  2. „Diese URL und ihre direkten Links crawlen“: Die angegebene URL und die direkt verlinkten Seiten werden erneut gecrawlt. (10 Anfragen pro Monat)

Dadurch können z.B. neu erstellte Seiten manuell und schnell an den Index gesendet werden.

Das Tool bietet zusammenfassend umfangreiche Möglichkeiten rund um das Thema „Crawling und Indexierung“ und kann nicht nur bei Rankingproblemen hilfreich sein. 😉

Seiten bereit für den mobile-first index machen

In einem neuen Blogpost veröffentlichte Google Tipps für Webmaster, wie sich diese auf den mobile-first Index vorbereiten können.

Das neue Ranking von Google wird nicht mehr auf der Desktop-Version basierend ermittelt, sondern auf Basis der mobilen Websites. Für Websites mit Responsive Design wird der neue Index weniger Auswirkungen haben (sofern auch auf Mobile-Geräten alle wichtigen Inhalte angezeigt werden).

Ein Blick in die Logdateien verrät, ob die eigene Seite bereits umgezogen wurde. Mehr Zugriffe des mobilen Googlebots sind hierfür ein eindeutiges Indiz. Grundsätzlich empfiehlt Google das Verwenden responsiver Seiten. Aber natürlich sind auch weiterhin separate, mobile Domains möglich, wobei man hier natürlich auf einige Faktoren mehr achten muss.

Was Sie über das Google Freshness Update wissen müssen

2011 kündigte Google das Freshness Update an, das für Aufruhr unter den SEOs sorgte, da es Einfluss auf die Ergebnisse von 35 Prozent aller Suchanfragen (Achtung, nicht 35 Prozent aller Keywords) verändern sollte. Ziel war es, bei zeitbezogenen Suchanfragen primär aktuelle Ergebnisse zu liefern. Doch was verbirgt sich genau hinter dem Freshness Update?

Gründe für das Freshness Update

Das Internet vergisst nicht, weshalb täglich mehr Daten entstehen und gesammelt werden. In nur einem Jahr wurden mehr Daten produziert als in den vergangenen 5.000 Jahren. Wird der Online-Status einer Seite nicht geändert, bleibt der entsprechende Inhalt erreichbar und auffindbar. Viele dieser Inhalte verlieren mit der Zeit an Relevanz für den Suchenden. Der Algorithmus sollte nun besser erkennen, wann der User ein aktuelles Ergebnis sucht beziehungsweise braucht.

Selbstverständlich bedeutet dies nicht, dass Firmen und Unternehmen nun ständig ihre Website aktualisieren sollen. Nach wie vor gibt es Evergreen Content, der nicht an Relevanz einbüßt.

Bei wiederkehrenden Ereignissen, brandaktuellen Themen oder ständigen Neuerungen greift jedoch der Freshness Algorithmus und bestimmte Inhalte können (kurzzeitig) im Ranking aufsteigen. Interessant und auch ungewöhnlich an dem Algorithmus war, dass es mehr Seiten gab, die von dem Update profitierten, als Seiten die erheblich an Ranking verloren.