Inhaltsverzeichnis
Was ist Paginierung (englisch: Pagination) eigentlich?
In Zusammenhang mit Webseiten und Suchmaschinenoptimierung wird der Begriff Paginierung für Inhalte verwendet, die nicht komplett auf einer Seite dargestellt werden. Beispiele finden sich bei
- Produktauflistungen / Kategorieseiten in Onlineshops
- Weblogs
- Suchergebnislisten
- oder lange Nachrichtenbeiträgen auf den Websites von Zeitungen.
Bei Dokumenten, welche aus Usability-Gründen über mehrere Seiten aufgeteilt sind, ist es wichtig, den Suchmaschinen mitzuteilen, dass die aktuelle URL eine Seite aus einem mehrseitigen Dokument ist. Ebenso welche URL die Seite davor und die Seite danach ist.
Dafür gibt es die Attribute , die im <head> der Seite eingefügt werden können. .
Nehmen wir an, wir haben einen Inhalt, der sich über 3 Seiten (3 URLs) erstreckt:
http://www.beispiel.com/part1.html
http://www.beispiel.com/part2.html
http://www.beispiel.com/part3.html
Im <head> Bereich von beispielsweise part2.html müsste also folgende Angabe hinzu:
<link rel="prev" href="http://www.beispiel.com/part1.html"> <link rel="next" href="http://www.beispiel.com/part3.html">
Google gab im Frühjahr 2019 bekannt, rel=”prev” und rel=”next” nicht mehr zu berücksichtigen. Auf Grundlage von Daten des Unternehmens verkündete Google, dass Content, der auf einer Seite zu sehen ist, deutlich beliebter bei den Nutzerinnen und Nutzern zu sein scheint. Daher solle man als Webseite eine solche Darstellung anstreben. Bei großen Shops setzt man einen One-Pager beispielsweise durch Infinite Scroll um, also durch das Nachladen des Contents beim Scrollen. Aus SEO-Sicht gibt es bei Infinite-Scroll-Seiten allerdings einige Fallstricke, besonders was die Indexierung der nachgeladenen Seiten betrifft. Wir empfehlen daher aktuell weiterhin, rel=”prev” und rel=”next”zu verwenden, da diese Angaben auch in Zukunft kein Problem für Google darstellen. Zudem verwendet die Suchmaschine Bing aktuell noch rel=”prev” und rel=”next” für das Verstehen der Struktur einer Seite.
Bei der Paginierung kann man einiges falsch machen
In der Vergangenheit gab es verschiedene Strategien, wie man mit paginierten Seiten umgeht. Meistens lag diesen die Absicht zugrunde, dass von paginierten Seiten nur die erste Seite im Index der Suchmaschine erscheinen soll. Bei Onlineshops mit sehr wenigen Artikeln wollte man die Suchmaschine auf die Artikeldetailseiten lenken und nicht mit den Kategorieseiten “ablenken”. Bei Onlineshops mit sehr vielen Artikeln und häufigen Sortimentswechseln wiederum sind die Kategorieseiten oft wichtiger als die Produktdetailseiten.
Folgende Dinge werden oft noch falsch gemacht:
- Canonical Tag bei Seite 2 und folgende auf Seite 1 setzen. Der Canonical Tag ist hauptsächlich für Seiten mit fast identischem Inhalt gedacht, nicht um Paginierung zu definieren.
- Canonical auf Seite 1 setzen und mit der NOINDEX Meta Robots Anweisung kombinieren. Das ist noch schlechter als das Beispiel zuvor: Google hat ausdrücklich gesagt, dass in dieser Konstellation die NOINDEX Konfiguration auf die Seite 1 vererbt wird. Das führt dazu, dass nicht nur die Seiten 2 ff (wunschgemäß) nicht indexiert werden, sondern auch die erste Seite ebenfalls nicht in den Suchergebnissen auftaucht.
- Falsche Verwendung von rel=”prev” und rel=”next”. Diese Anweisungen gehören in den <head> Bereich des Quellcodes, nicht als Attribut in die Link Tags der Paginierungslinks. Das kann man zwar machen, ist aber nicht die Vorgehensweise, die Google empfiehlt. Die Vermutung liegt nahe, dass die Angaben im <head> wesentlich einfacher und schneller geparst werden können als Attribute in <a href> Tags.
So geht es richtig
- Rel=”next” und rel=”prev” wie oben angegeben verwenden, sofern man seine Inhalte nicht durch passende Technik auf einer Seite SEO-freundlich darstellen kann.
- Bei langen Inhalten (z.B. Zeitungsseiten) keinen “noindex” meta robots tag verwenden. Guten Inhalt sollte man der Suchmaschine nicht vorenthalten. Durch die Verwendung der rel= Angaben wird fast immer die erste Seite im Index der Suchmaschine angezeigt.
- Kein Canonical verwenden – oder das obligatorische Canonical auf die jeweils aktuelle URL (“auf sich selbst”), ggf. auf die entsprechende https Variante. Auf keinen Fall ein Canonical auf die Seite 1 von den Unterseiten setzen.
Optional kann man mit einer zusätzlichen “Komplettansicht” arbeiten. Das wäre die Version des Inhaltes ohne Paginierung. Damit man kein Duplicate Content Problem erzeugt, sollten die paginierten Seiten dann alle auf die “Komplettansicht” verweisen. - Bei Onlineshops mit langen Produktlisten ist es sinnvoll, nur die erste Seite – die sogenannte Kategorieseite – durch die Suchmaschine indexieren zu lassen, und Seiten 2ff auf “noindex” zu setzen. Neben dem eher schwachen Inhalt der Folgeseiten ist bei vielen Händlern auch eine große Fluktuation im Sortiment gegeben. Zudem muss man bei umfangreichen Shops auch das Crawlingbudget im Auge behalten und entsprechend steuern. Wichtig ist, dass wie bereits erwähnt bei den Noindex-Seiten kein Canonical Tag auf die Seite 1 verweist.
- Bei allen genannten Varianten sollte die meta robots tag Konfiguration auf “follow” stehen. Auch bei Onlineshops mit vielen Produkten.
Wer sehr lange paginierte Inhalte hat – also mehre Dutzend oder gar hunderte paginierte Seiten – der sollte sich Gedanken machen, wie man die Navigation der Paginierung gestaltet. In dem obigen Bild ist ein klassischer Ansatz gewählt worden: Vor, zurück, Erste Seite, letzte Seite (hier 15) und die nächsten 3 Seiten. Es handelt sich um die Paginierung unseres eigenen Weblogs. Hier ist keinerlei Strategie und Entwicklungsaufwand in die Paginierung geflossen. Dies ist nicht notwendig, da unsere Leser meistens aus der organischen Suche direkt auf dem gewünschten Blogartikel landen. Und für weitere Navigation die interne Suchfunktion nutzen.
Die Veränderung dieser Paginierungsnavigation führt zu Veränderung in der Klicktiefe und der internen Verlinkung. Und damit zur Verteilung des Pageranks, des Cheirank und zum Teil auch des Crawlingbudgets. Wer sich sehr ausführlich mit diesem Aspekt beschäftigen möchte, oder einfach nur neugierig ist, sollte unbedingt hier vorbeischauen: https://audisto.com/insights/guides/1/
(Bildlizenz: Oimel – https://commons.wikimedia.org/wiki/File:Paginierstempel.jpg, „Paginierstempel“, Ausschnitt & Text von seonative, https://creativecommons.org/licenses/by-sa/3.0/legalcode)
Das Paginierungs-Experiment
Ein kleines Paginierungs-Experiment von Matthew Henry von portent.com zeigt das Problem mit der Paginierung bei großen Webseiten noch etwas genauer:
Webseitenbesucher wissen aus Erfahrung, dass ein Klick auf „2“ oder „next“ am Ende einer Seite uns auf die nächste Seite bringt. Suchmaschinen ist diese Logik um einiges schwerer beizubringen. Standardmäßig folgt der Webcrawler abgehenden Links von der Home zu Unterseiten über die interne Verlinkung.
Angenommen, wir haben ein Webprojekt mit 200 paginierten Seiten. Dabei spielt es keine Rolle, ob es sich um einen Blog, einen Webshop oder eine Onlinezeitung handelt. Unter Blogartikeln findet sich beispielsweise häufig ein Link zum nächsten oder zum vorherigen Artikel. Würde es nun keine Übersicht aller Blogseiten geben, müsste ein Nutzer ganze 199-mal auf „Next“ klicken, um vom ersten zum letzten Beitrag auf Seite 200 zu gelangen.
Klingt umständlich, aber genau so geht der Webcrawler vor: er beginnt bei Seite eins, folgt dem Link zu Seite 2,3 und so weiter. Bis er bei 200 angekommen ist, ist es ein erheblich langer Weg. Für Suchmaschinen entsteht ein sogenannter Pagination-Tunnel, der vier große Nachteile hat:
- Der Content auf den letzten Seiten ist hinter Hunderten von Links verborgen und signalisiert den Suchmaschinen damit, weniger relevant zu sein. Diese Seiten werden also auch immer schlechter ranken.
- Wenn während des Crawlings auch nur eine Seite einen Error zurückgibt – vielleicht durch einen kurzen Serverfehler – kann der Crawler auch alle folgenden Seiten nicht mehr erreichen.
- Der Webcrawler kann diese Anordnung von Seiten nicht parallel sondern immer nur linear crawlen. Dies verlangsamt den ganzen Ablauf und führt leicht dazu, dass nicht alle Seiten aufgenommen werden.
- Last but not least wird vermutlich auch kein User jemals die letzten Seiten zu Gesicht bekommen, da er sich dafür durch alle vorherigen Seiten klicken müsste.
Henry schlägt für das Experiment nun vor, zusätzlich nur nächsten Seite auch noch auf die vorherige Seite zu verlinken. So kann der Webcrawler von Seite 1 und von Seite 200 aus starten und muss ‚nur‘ noch 100 Links folgen, um alle Seite zu erreichen. Der Pagination-Tunnel wird also halbiert.
Ähnlich sieht es aus, wenn man alle fortlaufenden Seiten einzeln klickbar macht. Dann würde sich der Crawlingvorgang ebenfalls in zwei halblange Tunnel unterteilen: nämlich in gerade und ungerade Seiten.
Was passiert, wenn man diese beiden Methoden miteinander verbindet?
Wenn man von Seite 1 nicht nur weiter nach 2, 3, 4 usw. sondern auch gleich zu Seite 50 springen kann, würde dies den Weg des Crawlers verkürzen und er würde logarithmisch anstatt linear weiterlaufen. Setzt man zwischen Seite 1 und 200 also jeweils ein paar Links als „Zwischenmarken“, kommen User und Crawler erheblich schneller zur gewünschten Seite.
Henrys Experiment legt nahe: Je größer das Webprojekt, desto mehr Seiten sollte in der Paginierung auf einmal übersprungen werden können.
Bei 10.000 oder sogar 100.000 paginierten Seiten sind Zwischenverlinkungen in der Mitte der Navigation quasi Pflicht, um den Tunnel abzukürzen. Dies beschleunigt den Crawling-Vorgang ganz erheblich und ist nutzerfreundlicher.
Hier geht’s zu den kompletten Ergebnissen dieses spannenden Experiments:
https://www.portent.com/blog/seo/pagination-tunnels-experiment-click-depth.htm
Weiterführende Links:
Ich habe aktuell das Problem, dass es im Body-Bereich in WP mehrere weitere prev und next Elemente gibt. Meist auf einer Artikelseite wo man unten zum zuvor veröffentlichten Beitrag kommt. Zwei Pfeile, einer vor einer zurück, mit entsprechender HTML-Verkleidung. Google könnte diese da, wo ich Zweiteiler über den Header paginiert habe, verwechseln. Oder sehe ich zu viel der Gefahr?
Im Übrigen ganz schön schwierig, ohne Plugin in WP das einzustellen.
Gute Frage. Durch diese Integration verstehen Suchmaschinen die komplette Sequenz (Zweiteiler und andere Artikel außenrum) trotzdem korrekt.
Wir sehen hier kein entscheidendes Problem.
Vorausgesetzt alle Artikel sind hierbei indexierbar.
Hallo,
aktuell kann ich mir nicht ganz vorstellen, was Sie meinen. Aber grundsätzlich interessiert sich Google nur für die rel= Angaben im head-Bereich. Wenn es Elemente gibt, die einen Link zur vorherigen oder nächsten Seite erhalten, und in denen im Link Tag die rel Angabe enthalten ist, wird das ignoriert.
Mal aus Neugier zu Punkt 4
“Bei Onlineshops mit langen Produktlisten ist es sinnvoll, nur die erste Seite – die sogenannte Kategorieseite – durch die Suchmaschine indexieren zu lassen, und Seiten 2ff auf „noindex“ zu setzen. Neben dem eher schwachen Inhalt der Folgeseiten ist bei vielen Händlern auch eine große Fluktuation im Sortiment gegeben. Zudem muss man bei umfangreichen Shops auch das Crawlingbudget im Auge behalten und entsprechend steuern. Wichtig ist, dass wie bereits erwähnt bei den Noindex-Seiten kein Canonical auf die Seite 1 verweist.”
Mal eine blöde Frage: Gilt das denn eher für Shops, bei der sich die erste Seite oft ändert? Oder eher bei einer – auf die Artikel bezogen – konstanten Seite 1? Oder ist es egal, wie stark sich eben jene Seite 1 ändert?
(Ich hoffe, man versteht meine Frage )
Danke schonmal für den Artikel, der mir eine gute Argumentationsgrundlage liefert 🙂
Sowohl als auch. Der Gedanke dahinter ist: Seite 1 einer Kategorie ist oft so aufgebaut:
– Produktliste mit XY Anzahl an Produkten
– Pagnierung
– Promotion-Inhalte
– 2.000 Wörter SEO Text (aka. “Kaufberater”)
Wenn man mit Fremdprodukten handelt, die großer Fluktuation unterliegen (z.B. Laptops, Unterhaltungselektronik), dann kann man Rankings nur über den gleichbleibenden Inhalt erreichen. Also den langen Kategoriebeschreibungen (“Kaufberater”).
Wenn dieser Inhalt auf Seite 2 ff angezeigt wird, ist es Duplicate Content, also noindex. Wird der auf Seite 2ff nicht angezeigt, bestehen diese Seiten nur noch aus Produktnamen, die sich ständig ändert. Also Thin Content ohne Bestand. Daher auch NoIndex.
Hallo liebes seonative Team,
das ist ein sehr interessanter und informativer Beitrag über die Paginierung oder auch Pagination. Ihr habt gut und einfach dargestellt, wie man Paginierung richtig macht und wie man es lieber nicht machen sollte. Vielen Dank für den tollen Beitrag und weiter so!
Liebe Grüße aus Hannover
Hallo Matthias,
toller, in die Tiefe gehender Artikel, der das Thema informativ, vielseitig und vor allem verständlich aufbereitet.
Dürfte ich euch eine Frage zum Thema “Meta Descriptions und Blogseiten” stellen? Leider finde ich in einschlägigen Quellen bislang
keine Antwort dazu. Und zwar: Wir haben einen Blog mit vielen Unterseiten, der Inhalt verteilt sich also auf viele weitere URLs und der User
kann sich – wie auf Bild 15 zu sehen – (chronologisch) durch den Blog klicken. Alle diese einzelnen Blogseiten (also die Übersichtsseiten, nicht die auf den einzelnen Pages enthaltenen Artikel) haben jedoch alle dieselbe Meta Beschreibung. Ist das ein Nachteil? Man sollte identische Descriptions ja vermeiden aber ich weiß nicht ob sich dies bei den Blogseiten genauso verhält.
Danke und LG
Hi Björn,
das ist kein Problem.
Liebe Grüße
Philipp