Adwords Conversion-Tracking: Messung des Besucherinteresses

Um den Erfolg von Adwords-Kampagnen zu messen, werden generell Bestellungen in Form von Conversions gemessen. Im besten Fall (aus der Perspektive des SEM-Managers, der die Adwords-Kampagne betreut) beinhaltet das Geschäftsmodell des Unternehmens, für das die Anzeigen geschaltet werden, einen Shop, der überwiegend relativ niedrigpreisige Produkte anbietet, sowie ein entsprechendes Warenkorbtracking: Auf der einen Seite kann man genau den Umsatz einzelner Conversions feststellen anstatt mit Richtwerten arbeiten zu müssen, auf der anderen Seite erzielt man auch genügend Conversions, um so auch aussagekräftige Statistiken über die Performance einzelner Keywords und Anzeigen erstellen zu können. Für manche Unternehmen verhält es sich allerdings genau gegenteilig – hier werden keine hohen Sales-Conversionraten mit Gebrauchsprodukten erzielt, sondern hochpreisige Produkte angeboten, die zwar mit hohen Umsätzen verbunden sind, aber gemessen am Besucheraufkommen relativ selten nachgefragt werden. Der Extremfall sind Unternehmen, deren Produktportfolio so beschaffen ist, dass schon ein einzelner Sale das ganze Adwords-Jahresbudget rechtfertigen kann (beispielsweise ein Bauunternehmen für Häuser), aber eben auch nur einstellige Conversionzahlen über das ganze Jahr erzielt und möglicherweise tausende Besucher auf einen einzelnen Verkauf kommen. Derart hochpreisige Produkte werden auch in der Regel nicht direkt über die Website verkauft; hier ist die Adwords-Conversion Teil des Conversion-Trichters und nicht der Endpunkt (wie es der Fall ist, wenn man die Produkte direkt bestellen kann), was im Grunde bedeutet, dass man die eigentlichen Verkäufe gar nicht über Adwords messen kann. Alternativ dazu ist es möglich, dass zwar ein Webshop vorhanden ist oder anderweitig direkte Bestellungen möglich sind, aber trotzdem wenige direkte Sales zustande kommen, weil zum Beispiel die Produkte entsprechend teuer sind; oder weil der Kunde zwar insistiert, mit allen möglichen Keywords vertreten zu sein, aber nur bestimmte Keyword-Komplexe/Anzeigengruppen/Kampagnen auch tatsächlich Umsätze erzielen. Wenn man also eine solche Kampagne hat, wo man auf konventionelle Weise nur schlecht oder sogar gar nicht aussagekräftigen Zahlen zur Auswertung sammeln kann, braucht man eine Alternative. Eine mögliche ist stattdessen (oder zusätzlich) die Messung des generellen Besucherinteresses.

Messen des Besucherinteresses

Anfragen / Telefonanfragen (letztere nur, wenn man auch Telefontracking eingerichtet hat) sind gewissermaßen die Vorstufe zum Kauf, und eine beliebte Alternative, falls auf der Website keine direkten Verkäufe getätigt werden können – hier bekundet der Kunde nur sein grundsätzliches Interesse am Produkt und stellt eine Anfrage beim Unternehmen über ein Formular auf der Website. Wenn der Kunde hier angelangt ist, ist man bereits relativ weit fortgeschritten im Conversionprozess, im günstigsten Fall hat der Kunde bereits eine Kaufentscheidung getroffen und möchte nur noch die Details festmachen, bevor er sie finalisiert. Downloads signalisieren Interesse am Produkt, am Unternehmen, oder am Angebot auf der Website. Ein Besucher, der sich Prospekte, Informationen, Videos etc. herunterlädt, ist vielleicht kein unmittelbarer Kunde, aber er ist bereit, Zeit über den reinen Websitebesuch hinaus aufzuwenden und sich auch Initiativen zur Besucherbindung einzulassen. Das Besuchsvolumen (auf der Seite verbrachte Zeit / Anzahl besuchter Seiten) ist keine Aktivität im eigentlichen Sinne, die vom Besucher veranlasst werden muss, sondern ein Nebeneffekt des Seitenbesuchs. Dadurch sind sie zwar das am wenigsten aussagekräftige, aber dafür am häufigsten vorkommende Ereignis; und außerdem die flexibelste Größe, mit der man das Besucherinteresse messen kann: Die anderen Conversions haben die Schwäche, dass sie binär sind – entweder der Besucher stellt eine Anfrage oder nicht, entweder er lädt etwas herunter oder nicht. Das Besuchsvolumen dagegen ist durch seine Unabhängigkeit von bestimmten Aktionen des Besuchers und seine Elastizität sehr viel leichter greifbar zu machen. Auf den den ersten Blick mag es fragwürdig erscheinen, eine solche Größe überhaupt zu messen: Schließlich misst sie nichts besonderes außer reiner Anwesenheit auf der Seite. Hier muss man allerdings berücksichtigen, was ihre Abwesenheit aussagt – nämlich relativ eindeutiges Desinteresse des Besuchers. Denn es ist zwar auf der einen Seite nicht gesetzt, dass ein Besucher, der sich durch ein Dutzend Unterseiten klickt oder 20 Minuten auf der Webpräsenz verbringt, wirklich interessiert ist, auf der anderen Seite kann man aber sehr wohl ausschließen, dass das auf jemanden zutrifft, der auf der ersten Seite nicht einmal ein paar Minuten geblieben ist, bevor er ausgestiegen ist. Und wenn die anderen Conversions, die man verfolgt, vielleicht einmal alle paar hundert Klicks auftreten, ist eine solche Information bares Geld wert, wenn man die richtigen Schlüsse daraus zielt.

Wie kann man das Besuchsvolumen messen?

Um das Besuchsvolumen zu messen, muss das Adwords-Konto zunächst einmal mit dem Analytics-Konto derselben Seite verknüpft werden. Den durchschnittlichen Umfang dieser Größen (Besuchsdauer/besuchte Seiten) kann man sich dann direkt im Adwords-Dashboard (unter „Spalten“) anzeigen lassen – wenn der eigene Adwords-Account auch mit dem Analytics-Konto verknüpft ist.

blog1

Die aus Analytics importierte Zeitangabe hat allerdings zwei Probleme: Einmal kann man damit nur die Durchschnittszahlen und nicht die „Spikes“ nachvollziehen, und zum anderen sind die im Screenshot gezeigten Analytics-Daten zwar in der Keyword-, nicht aber in der Suchbegriffs-Übersicht verfügbar.

Um das zu umgehen, bietet sich das conversion-basierte Zeit-Tracking an: Dazu ruft man in Google Analytics unter Verwalten > Datenansicht (Alle Website-Daten) > Zielvorhaben auf, wo man mit +NEUES ZIELVORHABEN die entsprechenden Ziele (Besuchsdauer oder besuchte Seiten) definieren kann.

blog2

Am aussagekräftigsten ist hier eine staffelweise Einrichtung von Zielen (ob es sich nun um Dauer oder um Seiten handelt), wie im Screenshot gezeigt, denn auf diese Weise werden sowohl relativ (allerdings nicht vernachlässigbar) kurze als auch sehr umfassende Besuche separat voneinander getrackt und können auch im Google-Dashboard als solche identifziert werden: Wenn ein Klick dann beispielsweise 1 Klick-Conversion mit 3 Conversions erzielt, bedeutet das, dass dieser Besucher mindestens 15, aber weniger als 20 Minuten auf der Seite geblieben ist. Wären jetzt beispielsweise nur alle Klicks über 5 Minuten getrackt worden, hätte man keine Ahnung, dass der Besucher deutlich länger geblieben ist, hätte man nur alle Klicks über 30 Minuten getrackt, wüsste man nicht, dass der Besucher überhaupt länger geblieben ist. So wird dann zwar nicht mehr (im Gegensatz zur den oben angegebenen Messwerten) jeder einzelne Klick berücksichtigt, aber dafür die länger andauernden Besuche speziell hervorgehoben.

Wie soll man die Messung des Besuchsvolumens von der Messung anderer Größen abgrenzen?

Hier kommt die Zuweisung von Conversion-Werten ins Spiel. Die genaue Bedeutung, die man den verschiedenen Conversiontypen zumisst, variiert von Konto zu Konto und von SEM-Manager zu SEM-Manager, aber grundsätzlich ist es zielführend, das Besuchsvolumens als „Nullgröße“ anzusehen und wirklichen Aktionen einen Wert zuzuweisen. Z.b. den Wert 1 oder, wenn man mehrere sonstige Größen hat, verschiedene Zehnerpotenzen (z.B. den Wert 1 für Downloads von Informationen und den Wert 100 für tatsächliche Anfragen). Die genaue Aufschlüsselung der einzelnen Conversiontypen kann man sich zeigen lassen, wenn man unter Segment > Conversions > Conversion-Name auswählt.

blog3

Wer nun auf dieser Basis das Zeit/Seiten-Tracking eingerichtet hat, kann relativ zuverlässig beurteilen, welche Keywords keinen Mehrwert haben. In conversionlastigen Kampagnen, wo die Keywords/Anzeigen von Bedeutung gut identifizierbar sind, ist das Tracking des Besuchsvolumens vielleicht verzichtbar – in conversionarmen Kampagnen dagegen, wo das nicht funktioniert, ist es stattdessen essenziell, unbedeutende Keywords/Anzeigen zu erkennen und zu pausieren, oder ganz aus den Listen zu entfernen.

Mobile-Friendly Update am 21.04 – Aktuelles + Seonative-Leitfaden

Mobile Websites von Amazon und Zalando

Google stellt die Segel auf Mobile-Optimierung – am 21. April 2015 kommt das große und bereits langfristig angekündigte „Mobile Friendly Update“, wie wir bereits vor einiger Zeit hier berichtet haben.

Am Ende dieses Artikels finden Sie unseren Leitfaden „Sichtbar im mobilen Web“ zum Download als PDF-Datei.

Wen betrifft das Update?

Kurz – dieses Update betrifft alle! Also sowohl den kleinen Shop, die Affiliate-Seite als auch große B2B-Seiten. Die Zeit sich auf seiner 10 Jahre alten Seite auszuruhen ist also endgültig vorbei.

How To: „Abruf wie durch Google“

Ein aktuelles Rankingproblem eines Kunden machte mich nach längerer Zeit wieder auf das Diagnosetool von Google aufmerksam. Mit der Funktion in den Webmaster Tools, welche unter dem Punkt „Crawling“ zu finden ist, kann man sich aufzeigen lassen, wie der Googlebot eine Seite sieht. Die Funktion „Abrufen“ gibt es schon länger, seit Mai 2014 können Seiten zusätzlich gerendert werden. Das bedeutet, man erhält ein Vorschaubild wie der Googlebot die Seite sieht und kann ggf. Unterschiede zur Sicht des Besuchers erkennen. Bei der Seite des Kunden gab es die Vermutung, dass Google nicht alle Inhalte der Seite lesen und verstehen konnte, da u.a. viel mit JavaScript gearbeitet wurde. Eine Prüfung mit „Abruf wie durch Google“ ergab folgendes Ergebnis:

2015-01-22 16_07_34-Webmaster-Tools - Abruf wie durch Google

Der Googlebot konnte nicht alle Ressourcen der Seite erreichen, dementsprechend war das Vorschaubild nur eine graue Seite. Weiter unten wird aufgelistet, welche Ressourcen aus welchen Gründen nicht abgerufen werden konnten. Und siehe da, zwei Skripte wurden von der robots.txt-Datei blockiert. Doch haben gesperrte CSS- oder JavaScript-Dateien wirklich negative Auswirkungen auf das Ranking? In einem Blogpost empfiehlt Google:

„Wir empfehlen euch daher, dafür zu sorgen, dass der Googlebot auf alle eingebetteten Ressourcen zugreifen kann, die für die sichtbaren Inhalte oder das Layout eurer Website wichtig sind. Zum einen erleichtert euch das die Verwendung von „Abruf wie durch Google“, zum anderen kann der Googlebot dann diese Inhalte finden und indexieren.“

Nach kurzem Anruf beim Kunden wurden die blockierenden Elemente aus der robots.txt-Datei entfernt. Danach war das Rendern ohne Fehler möglich. Eine Woche später hat sich das Ranking von Seite 6 auf Seite 2 wieder erholt.

Was kann man mit der Funktion „Abruf wie durch Google“ noch anstellen?

Zunächst kann man wählen, ob man die Startseite oder eine bestimmte Unterseite abrufen lässt. In der Woche stehen maximal 500 Abrufe zur Verfügung. Danach kann man den Googlebot-Typ auswählen. Hier gibt es folgende vier Browsertypen zur Auswahl:

Webmaster-Tools - Abruf wie durch Google

Danach kann die Seite abgerufen werden (schnelle Variante) oder abgerufen und gerendert werden (eingehende Prüfung). Unterhalb erscheinen die Crawling-Ergebnisse, welche beispielsweise so aussehen können:

2015-02-04 16_06_02-Webmaster-Tools - Abruf wie durch Google

Wenn die Prüfung erfolgreich war, ist der Status „Abgeschlossen“. Weitere Statuswerte:

  • Fehler: Ein Problem von Google (am besten erneut versuchen)
  • Teilweise (bei Rendern): Google konnte nicht alle Ressourcen der URL erreichen
  • Weitergeleitet: Der Server verwies Google während des Aufrufs an eine andere URL
  • Blockiert: Ihre robots.txt-Datei blockiert das Abrufen der URL durch Google

Indexierung bei Google anfordern

Eine weitere nette Funktion ist das Senden von URLs an den Google Index. Kürzlich abgerufene Seiten können durch die Schaltfläche „An den Index senden“ direkt an Google gesendet werden. Danach öffnet sich ein Popup mit zwei Möglichkeiten:

  1. „Nur diese URL crawlen“: Google crawlt erneut die Seite und schickt diese anschließend an den Index (500 Abrufe pro Woche)
  2. „Diese URL und ihre direkten Links crawlen“: Die angegebene URL und die direkt verlinkten Seiten werden erneut gecrawlt. (10 Anfragen pro Monat)

Dadurch können z.B. neu erstellte Seiten manuell und schnell an den Index gesendet werden.

Das Tool bietet zusammenfassend umfangreiche Möglichkeiten rund um das Thema „Crawling und Indexierung“ und kann nicht nur bei Rankingproblemen hilfreich sein. 😉

Der Google Crawler und das Kaufhaus

kaufhaus-schildWas viele Website Betreiber nach wie vor nicht wissen – nicht jede Seite einer Website wird immer automatisch gecrawlt, geschweige denn indexiert. Man muss den Google Crawler hier etwas an die (virtuelle) Hand nehmen und ihn (oder sie, oder es, um politisch korrekt zu sein) an die virtuelle Hand nehmen. Dies kann durch einen klugen Aufbau der Website ebenso geschehen sowie durch die Beachtung einiger einfacher Grundregeln. Der Crawler bringt pro Website ein (nicht pauschal definierbares) Crawling-Kontingent mit. Es werden also nur so viele URLs gecrawlt, bis das Kontingent erschöpft ist. Dann verabschiedet sich der Crawler wieder. Da man nicht genau weiß, wie hoch das Crawling-Budget für die eigene ist, sollte man also versuchen, den Crawler so zu leiten, dass zuerst vor allem die wichtigen Seiten gefunden und indexiert werden. Weniger wichtige können nachrangig behandelt werden.

Die Website als Kaufhaus

Am besten stellt man sich seine Website als Haus vor. Je größer die Internetpräsenz, desto größer ist das „Haus“. Im Falle von größeren Websites (z. B. Onlineshops etc.) dürfte es sich eher um ein Kaufhaus handeln. Beim Friseur von nebenan ist es wohl die 3-Zimmer-Wohnung. Je größer also das Haus, desto intensiver muss der Besucher (Crawler) geführt werden. Bei kleineren Websites wird in der Regel jede Seite ohne größere Probleme gefunden, sofern die Voraussetzungen stimmen (keine relevanten Seiten durch robots.txt oder per noindex von der Indexierung ausgeschlossen etc.). Nachfolgende Abschnitte konzentrieren sich daher also eher auf die Kaufhaus-Variante.

In einem Kaufhaus gibt es Schilder mit Geschäfts- und Abteilungs-Bezeichnungen (Kleidung, Spielzeug, Schmuck, Nahrungsmittel…), die den Kunden durch das Geschäft „leiten“ und ihm zeigen, wo er was findet (alternativ gibts auch die Ikea-Variante, bei der man linear durch jede Abteilung geleitet wird). Bei einer Website können dies z. B. eine gute Navigation und eine durchdachte interne Verlinkung sein.

XML Sitemap

Dann gibt es in jedem guten Kaufhaus auch Tafeln mit Übersichten über alle Stockwerke und den entsprechenden Geschäften, optimaler-weise auch noch mit Wegbeschreibung. Diese Funktion übernimmt bei einer Website die XML-Sitemap. Sie zeigt dem Crawler also eine Komplett-Übersicht. Bei größeren Websites mit mehreren Sprachen können hier zusätzlich auch noch die jeweils zugehörigen Sprachversionen derselben URL angegeben werden („hreflang“). Bei Websites mit vielen Bildern & Videos können auch hierfür separate Sitemaps angelegt werden. Wenns nicht ganz so viele sind, können diese auch in die normale Sitemap mit aufgenommen werden.

Leider werden auf vielen Websites die Sitemaps nur spärlich oder gar nicht regelmäßig gepflegt. Dabei ist diese einfache Liste ein sehr mächtiges Werkzeug für eine vernünftige Indexierung der eigenen Website. Vor allem bei Websites, die öfter eine Änderung erfahren, sollte die Sitemap mehrmals pro Woche angepasst werden.

Da man sich nicht darauf verlassen sollte, das Google die Sitemap von alleine findet, sollte diese unbedingt nach jeder Aktualisierung über die Webmaster Tools hochgeladen werden: Praktischerweise liefert Google hier auch noch gleich entsprechende Hinweise, sofern die Sitemap fehlerhaft ist. Zusätzlich wird angezeigt, wie viele der eingereichten URLs indexiert wurden. Wenn die Zahl der eingereichten und indexierten URLs zu stark voneinander abweicht, könnte evtl. auch ein Problem vorhanden sein.

Sitemap

Eingereichte XML Sitemap in den WMT

robots.txt

Bei einigen Kaufhäusern gibt es dann noch die Schildchen vor der Tür „wir müssen draußen bleiben“ (mit einem kleinen Bildchen eines süßen Hundes nebendran) und im Gebäude selbst Türen, die mit „privat“ oder „nur für Personal“ beschriftet sind. Diese „du kommst hier net rein“ Funktionen übernehmen bei einer Website die robots.txt bzw. das noindex-Metatag. Über die robots.txt sollte dann wiederum auch die Sitemap verlinkt werden, um dem Crawler direkt auf die Gesamt-Übersicht zu leiten.

Abnehmendes Crawling-Kontigent

Nun können Sie sich den Google-Crawler als ganz normalen Mann vorstellen, der mit seiner Frau durch das Kaufhaus marschiert. Am Anfang ist er noch gut zu haben (volles Crawling-Kontingent), mit der Zeit und der steigenden Anzahl der besuchten Klamotten-Läden wird dieses Kontingent aber immer mehr erschöpft. Spätestens nach dem achten Mode-Geschäft ist das Kontingent dann erschöpft und der Mann verlässt das Gebäude (wenn die Frau nicht will bleibt sie eben dort und muss sehen wie sie nach Hause kommt :D). Wurde der Mann dann zwischenzeitlich auch noch irgendwo zwischen geparkt, z. B. beim Würstchen-Stand, während die Frau schonmal das nächste Mode-Geschäft besucht hat… danach musste der Mann dann vermutlich einige Geschäfte abklappern (404 Error), bis er seine Frau gefunden hat. Dadurch hat sich das Crawling-Kontingent (Geduld) des Mannes weiter dramatisch reduziert, so dass definitiv nach dem achten Geschäft Schluss ist (eigene Erfahrungswerte sind in den Abschnitt mit eingeflossen).

So ist es auch mit dem Google-Crawler. Mit jeder besuchten Seite nimmt das Crawl-Budget (oder Crawling-Kontingent – egal) ab. Wird der Crawler dann zwischenzeitlich auch noch auf  404-Seiten geschickt (= verschwundene Frau), nimmt das Kontingent weiter ab, auch wenn keine existierende Seite dahinter steht. Bei sehr vielen 404-Seiten (und es gibt einige Websites mit unglaublich vielen 404-Seiten) kann man sich also vorstellen, was das bedeutet. Man sollte also die eigene Seite regelmäßig auf 404-Seiten überprüfen (z. B. über die Webmaster Tools unter Crawling -> Crawling-Fehler).

Regelmäßiger Check der Webmaster Tools

Selbstverständlich sollte es für jeden Admin sein (sofern er mit seiner Website in Google gefunden werden will), regelmäßig einen Blick in die Webmaster Tools zu werfen. Dort lässt sich recht schnell erkennen, wenn Probleme bei der Indexierung vorliegen. Zusätzlich sollte man die eigene Website auch hin und wieder in Google „suchen“, z. B. mit der Site-Abfrage. Auch hier lassen sich oftmals Probleme erkennen bzw. Seiten finden, die eigentlich nicht in den Index gehören.

Zum Schluss allen noch ein gutes & erfolgreiches neues Jahr 2015, bleiben Sie uns gewogen! 🙂

Unterschiedliche Ergebnisse bei gleicher Suchanfrage? Wie Google Suchergebnisse personalisiert

Wer nach etwas sucht oder etwas nicht weiß, der googelt – in der Hoffnung, dass die angezeigten Suchergebnisse die einzig wahre Lösung sind. Doch wer denkt, dass die Website, die unter den Suchergebnissen an Platz eins steht, auch für alle anderen Google Nutzer an erster Stelle erscheint, der liegt falsch. Das hängt mit der personalisierten Suche zusammen, die Google nach verschiedenen Faktoren durchführt. Wer zum Beispiel bei Google+ angemeldet ist, erhält in den Suchergebnisse vor allem Websites, die in seinem vernetzten Personenkreis beliebt sind. Doch nicht nur für Google+ Nutzer werden personalisierte Ergebnisse angezeigt, sondern für jeden, der die beliebte Suchmaschine verwendet – nach unterschiedlichen Kriterien.

Ranking nach Surfverhalten und früheren Suchanfragen

Für das personalisierte Ranking bei Google spielt vor allem die Suchhistorie der jeweiligen IP-Adresse eine Rolle, das sogenannte Webprotokoll. Google speichert das Webprotokoll unabhängig davon, ob der User angemeldet ist oder nicht, indem einfach die gesetzten Cookies verwendet werden. Außerdem ist das Webprotokoll meist unwissentlich aktiviert, so dass frühere Suchanfragen von der Suchmaschine gespeichert und anschließend verknüpft werden können. Das bedeutet konkret, dass wer zum Beispiel auf der Suche nach Hotels häufig hotel.de geklickt hat, in Zukunft Ergebnisse dieses Anbieters an höherer Rankingstelle sehen wird. Außerdem analysiert Google die bisher besuchten Websites hinsichtlich dessen, was bei früheren Suchanfragen geklickt wurde. So werden bei erneutem Googeln des gleichen Begriffs Ergebnisse gezeigt, die näher an den vorher angeklickten Ergebnissen liegen.

Der Standort ist für Suchanfragen entscheidend

Die Suchergebnisse, die Google liefert, hängen auch vom jeweiligen Standort ab. Anhand der IP-Adresse kann die Suchmaschine ungefähr bestimmen, wo sich der Suchende befindet und passgenaue Ergebnisse liefern. Wenn also von einer Berliner Wohnung aus nach Zahnärzten gegoogelt wird, liefert die Anfrage andere Ergebnisse, als bei einem Suchvorgang in Dortmund. Praktisch ist das natürlich in erster Linie für die Suchenden, denn sie finden so schneller, was sie vermutlich benötigen. Doch nicht nur die eigene IP-Adresse entscheidet, sondern auch, welche Google-Seite verwendet wird. Die Seiten Google.de, Google.at und Google.ch zum Beispiel liefern zwar alle deutschsprachige Ergebnisse. Dennoch unterscheiden sich die Suchergebnisse länderspezifisch, je nachdem, ob auf der deutschen, österreichischen oder schweizerischen Google-Seite gesucht wird. Gleiches gilt natürlich auch für andere Endungen wie beispielsweise .com, .it oder .fr. Aus SEO-Sicht ist es daher wichtig, eine Top-Level-Domain aus dem Land zu verwenden, in dem die Seite primär gefunden werden soll.

Und selbst der Browser, mit dem gegoogelt wird, ist für Suchanfragen noch relevant. So erhalten zum Beispiel Safari-User bei Suchen nach bestimmter Software eher Ergebnisse für Apple-kompatible Produkte. Bei Firefox, Internet Explorer oder Chrome hingegen sollten normalerweise gleiche Ergebnisse angezeigt werden – doch auch hier kann es zu Variationen kommen.

Diese Kriterien sind längst noch nicht alles. Welche Faktoren Google außerdem für die Personalisierung von Suchergebnissen verwendet, ist ein gut gehütetes Geheimnis des Konzerns. Wichtig für die Suchmaschinenoptimierung von Websites ist es aber in jedem Fall, das Ranking der eigenen Seite neutral zu betrachten und nicht dem Irrglauben anheim zu fallen, dass die Website bei allen Usern an Platz eins gelistet wird, nur weil das am heimischen Computer so der Fall ist.