Die vom Zwischenhändler übernommene Produktbeschreibung, der sich wiederholende Abschnitt zur Firmenphilosophie auf verschiedenen Website-Abschnitten und vergessene Weiterleitungen von alten und neuen Inhalten auf verschiedenen Domains: Alles wird als „Duplicate Content“ gewertet und fällt damit in das Aufgabengebiet der OnPage Optimierung und eine klassische Aufgabe im technischen SEO. Aber schadet es in jedem Fall dem Ranking und dem Trust, torpediert es die bisherigen SEO-Bemühungen? Wir haben Fakten und Hilfreiches zum Erkennen, Beurteilen und Beseitigen von Duplicate Content zusammengestellt.
Inhaltsverzeichnis
Was ist Duplicate Content?
In der Suchmaschinenoptimierung sind einzigartige Inhalte das Nonplusultra. Entsprechend schlecht wird Duplicate Content angesehen. Und das unabhängig davon, ob er absichtlich oder unabsichtlich entsteht.
Definition: Duplicate Content entsteht dann, wenn exakt gleiche Inhalte unter mehr als einer URL im Internet aufgerufen werden können. In der Regel sind Text-Inhalte damit gemeint. Unterschieden wird in interner Duplicate Content und externer Duplicate Content.
Bewusst in Kauf genommene doppelte Inhalte treten beispielsweise auf, wenn
- längere Blogartikel oder Anleitungen reposted werden, beispielsweise auf Newsportalen, anderen Blogs oder Ähnlichem
- Pressemitteilungen 1:1 von verschiedenen Newsseiten veröffentlich werden
- aus Branding- und Marketinggründen gleich lautende Passagen über unterschiedliche URLs ausgegeben werden
Es kann gute Gründe dafür geben, gleichlautenden Content an verschiedenen Veröffentlichungsorten auszugeben. Solange der ursprüngliche Inhalt etabliert ist, die Original-Domain nicht gerade brandneu und das Linkwachstum der Website entsprechend gesund, dürfte daraus kein Schaden für die Suchmaschinenoptimierung entstehen, sagt auch Neil Patel.
Externer Duplicate Content wirkt sich dagegen häufig schlechter aus, wenn etwa Produktbeschreibungen vom Großhändler 1:1 übernommen und auf zig Dropshipping-Online-Shops zum Einsatz kommt. Die Darstellung per Suchmaschine ist vor allem für Interessenten und Kunden uninteressant, was zu weniger Klicks und geringeren Conversions führen kann. Wenn sich die Produktpräsentation über zig Suchergebnisse hinweg nicht unterscheidet, kauft die Kundschaft im Zweifel dort, wo es preiswerter ist.
Gefürchtet, aber selten von großer Auswirkung sind übrigens Scraper, d.h. Seiten die 1:1 ganze Websites kopieren. Klassische Kriterien wie extrem kurze Domain-Lebensdauer, sehr schnelles Seitenwachstum ohne organischen Seitenaufbau und ähnliche Verhaltensmuster machen es Google einfach, Scraper von echten Websites zu erkennen. Das heißt auch: In der Regel führt eine gescrapte Website nicht zum Rankingverlust in den Suchmaschinen.
Hinweis: Lässt sich der Rankingverlust doch beziffern, kann dagegen vorgegangen werden. Das entsprechende Formular findet sich hier; mit Klick auf „Diese Seite ist wirklich Webspam. Webspam melden.“ wird ein Formular aufgerufen, bei dem die Original- und die Scrapingseite eingetragen werden kann.
Wichtig ist außerdem: Scraping kopiert die gesamte Seite. Urheberrechtsverstöße sind zusätzlich zu ahnden, wenn der Content teilweise oder gänzlich kopiert, aber unter anderem Namen oder anderem Branding ohne Genehmigung verwendet werden.
Wie kommt interner Duplicate Content zustande?
Anders sieht es bei unbeabsichtigtem Duplicate Content, insbesondere im eigenen Webprojekt aus. Hier entstehen in der Regel durch Unachtsamkeiten vermeidbare doppelte Inhalte, die tatsächlich zur ungünstigeren Rankingplatzierung führen können.
Komplette Website | Erreichbarkeit der Website „mit“ und „ohne“ www; Erreichbarkeit der Website über „http“ und „https“ |
Startseite | oft noch mit index.php erreichbar, mit Trailing Slash und ohne |
Neue Seiten erstellen | alte Seiten werden nicht weitergeleitet und existieren weiter |
URL-Parameter & Session-IDs | Tracking Parameter oder Session IDs erzeugen massenweise Duplicate, da für die Suchmaschine unterschiedliche URLs mit demselben Inhalt vorhanden sind |
Mehrfacherreichbarkeit gleicher Inhalte | Insbesondere bei Shops kommt es vor, dass dieselbe Seite auf verschiedenen Wegen erreichbar ist und die URL dabei jedes Mal variiert |
Sprachversionen | Sprachversionen ohne korrekte Auszeichnung kann zu Duplicate Content führen |
Print-Versionen von Inhalten | Drucker-freundliche Inhaltdarstellungen können zu gleichen Inhalten unter verschiedenen URL führen |
Warum ist Duplicate Content ein Problem für das Ranking?
Für Suchmaschinen ist Duplicate Content problematisch, wenn es um die konkrete Zuordnung von Link Authority, Trust oder die Einstufung von Relevanz geht:
- Welche Version/welche Webseite sollte im Index erscheinen – und welche nicht?
- Welche Webseitenvariante bekommt die Link-Bewertungen (Authority, Trust, etc.) zugeschlagen?
- Welcher Content ist relevanter für die Suchanfragen und sollte deshalb (besser) ranken?
Tritt der Content zahlreich unter verschiedenen Webadressen auf, kann das Ranking für alle betroffenen Websites sinken. Und das wiederum ist vermeidbar!
Duplicate Content erkennen
Haupt- und weitere wichtige Unterseiten zu sichten, sollte an erster Stelle stehen. Bei großen Webprojekten und im eCommerce verliert sich allerdings schnell die Übersicht darüber, welche Inhalte über unterschiedliche URL mehrfach dargestellt werden.
Hier gibt es viele Tools die hilfreich sind. Ich werde aber hier die Vorgehensweise an folgenden Tools veranschaulichen:
- Google Search Console
- Sistrix
- Copyscape/Siteliner
1. Google Search Console
Erster Schritt ist hier die Analyse der Suchanfragen: Was sind relevante Keywords für die Darstellung in der Suchmaschine? Welche Information wird häufig angefragt, welches Suchergebnis häufig geklickt?
Unter „Leistung“ werden häufige Suchanfragen aufgelistet. Man beginnt bei dem stärksten Keyword. Um herauszufinden, ob Google nur eine Seite für dieses Keyword ausliefert oder ob sich hier unterschiedliche Seiten die Relevanz teilen (Doppelte Inhalte), geht man wie folgt vor:
Man erstellt einen Filter für dieses Keyword, indem man bei Leistung: Nach Suchanfragen Filtern, das Keyword bei „Exakte Anfrage“ eingibt.
Zu viele Seiten sichtbar? Dann ist für Google die Zuordnung des Keywords auf genau eine Seite problematisch. D.h.: Handlungsbedarf!
Aus bestehenden Keyword-Analysen ergeben sich so Listen an Suchanfragen, die auf diese Weise analysiert werden können. Bei großen oder sehr dynamischen Webprojekten sollte das regelmäßig erfolgen, um unbeabsichtigten Duplicate Content weitgehend zu vermeiden.
2. Sistrix
Zuerst lässt man sich alle Keywords anzeigen für die ein Ranking existiert:
Jetzt gibt es mehrere Möglichkeiten:
- Überprüfen aller Keywords:
- Sortieren der Keywords nach Alphabet indem man auf Keyword klickt:
- Mehrfachlistings anzeigen (Rädchen recht oben)
- Nun geht man alle Keywords durch. Wird ein Keyword mehrfach aufgelistet, dann gibt es verschiedene Seiten für das Keyword. In diesem Fall sollte man, wenn es sich um ein wichtiges Keyword handelt, optimieren.
- Überprüfen einzelner Keywords:
- Erstellen eines Filters – Auswahl Keyword (exakt) – Eingabe des zu überprüfenden Keywords – Anwenden
- Wieder Einstellung “Mehrfachlistings anzeigen”
Erscheinen wieder mehrere Ergebnisseiten, so ist eine Optimierung empfohlen.
3. Copyscape/Siteliner
Copyscape und ähnliche Dienste prüfen nach Eingabe der konkreten URL das komplette Internet auf Dopplungen. Siteliner als Ableger von Copyscape prüft zusätzlich innerhalb einer definierten URL, ob Duplicate Content vorhanden ist.
Verschiedene URL mit gleichen Inhalten werden anschließend aufgelistet.
In der Free-Version werden bis zu 250 Seiten innerhalb einer Website geprüft. In der Premium-Version werden alle auf doppelte Inhalte durchsucht. Diese Lösung bietet sich dann an, wenn der „Blick von außen“ gewünscht ist.
Duplicate Content beseitigen
Technische Ursachen für doppelte Inhalte sind im Suchmaschinenmarketing schnell behoben:
Problem | Lösung |
Erreichbarkeit der Website mit und ohne www | Entscheidung für eine Version und 301 Weiterleitung in der htaccess-Datei |
Erreichbarkeit der Website über http und https | Entscheidung für eine Version und Weiterleitung per 301 in der htaccess-Datei |
Startseite über index.php erreichbar | Weiterleitung per 301 auf die Startseiten-Linkstruktur |
Neue und alte Seiten | Weiterleitung per 301 der alten auf die neue Version |
URL-Parameter und Session IDs | Ausschließen der Parameter in den Google Webmastertools möglich oder mit Canonical Tags |
Mehrere Sprachversionen | Verwendung des hreflang Attributs |
Bei inhaltlichen Überschneidungen wird die Optimierung der Inhalte direkt angegangen:
- Inhaltliche Überarbeitung und Differenzierung der verwendeten Keywords mittels WDF*IDF Analyse
- Unterschiedliche Ausarbeitung der Textdarstellung in Form von Bullets, Listen, Auflockerung mit Bild- und Zitatmaterial oder Videoeinbindung
- Grundlegendes SEO: Einsatz von H1, H2 mit passenden Keywords usw. optimieren
- Meta-Description und Title überarbeiten auf das jeweils passendere Keywords
- Für Gastartikel und Zweitveröffentlichungen kann der Canonical-Tag verwendet werden, der klar ausweist, welche Version „Original“ und welche der „Repost“ ist
Hinweis: Wiederholende Elemente im Footer oder Head-Bereich der Website erkennt Google in der Regel als das, was sie sind. Relevant sind die inhaltlichen Änderungen am internen Duplicate Content insbesondere bei dynamischem Content und bei E-Commerce-Projekten. Hier sollten unbedingt pro Produkt, Seite oder Blogbeitrag exakte Keywords bestimmt werden und Unique Content das erklärte Ziel sein.
Fazit:
Nicht alle doppelten Inhalte sind problematisch. Manchmal sind sie sogar unvermeidbar und ergeben sich aus der Webseitenstruktur. Bevor man irgendwelche schnellen “Optimierungen” vornimmt, lohnt sich die Prüfung, ob Rankingprobleme für spezifische Keywords auftreten. Falls dies der Fall sein sollte, dann helfen die erwähnten Maßnahmen bei der Spezialisierung der Seiten.
Sie haben Probleme mit internem oder externen Duplicate Content? Gerne helfen Ihnen unsere SEO-Experten weiter! Kontaktierien Sie uns gerne!
Hi Timo,
danke für dein Lob! Ich denke das sollte kein Problem für Google sein, solange die Inhalte einzigartig sind.
Liebe Grüße
Philipp
Die Möglichkeit, Duplicate Content über die Search Console zu identifizieren, kannte ich noch gar nicht. Besten Dank für diesen super Tipp bzw. den Artikel.
Bisher nutze ich immer copyscape aber werde die anderen Möglichkeiten auch mal testen. Danke für die Tipps.
Vielen Dank für diesen Beitrag, sehr aufschlussreich. Copyscape war mir neu!
Vielen tolles Blog hat mir sehr gefallen
Danke für den guten Beitrag.
So ein toller Artikel, Danke!
Hallo Julian,
spannendes Thema, welches in Zeiten von ChatGPT noch mal neu beleuchtet werden muss. Denn Dank KI lassen sich viele Texte in kurzer Zeit erstellen. Mit der Funktion “Rewrite this text” lassen sich mehrere Versionen erstellen, die sich in Phrasen und Wörtern unterscheiden. Mich würde interessieren, ob Google hier schon eine Wertung als DC vornimmt. Das wäre für viele SEOs natürlich schlecht. Weißt du hier mehr?
Viele Grüße
Jan
Hallo Jan
Danke für deine Frage. Um Google selbst zu zitieren:
Wichtig ist immer noch: Erfahrung, Expertise, Autorität und Vertrauenswürdigkeit. Wenn dir KI dabei helfen, dann nutze es.
Liebe Grüße Toni