Rankingfaktor Duplicate Content 2018

Duplicate Content ist ein heiß diskutiertes Thema in der SEO-Welt. Immer wieder wird diskutiert, ob nun interner duplizierter Inhalt oder externer doppelter Inhalt schädlich für eine Internetseite sind. Jede Website ist in einem gewissen Maße im Regelfall davon betroffen. Dies sehen wir bei unseren Kunden auch immer wieder.

Sistrix hat hier bereits eine sehr gute Vorarbeit geleistet und auch sehr hilfreiche Videos von Matt Cutts, Mitarbeiter von Google, verbreitet. Allerdings steht nun 2018 im Vordergrund und nicht mehr 2017. Deshalb fragen wir uns auch als SEO- und Inbound-Marketing-Agentur, wie Google Duplicate Content in Zukunft ahnden wird.

Schließlich ist bereits bekannt, dass die Suchmaschine in Zukunft deutlich mehr auf den Inhalt einer Website achten wird. Inhalte werden ein primärer Rankingfaktor, wenn sie es nicht schon sind. Auch wir legen immer mehr Wert auf informative und umfassende Blog-Artikel, sodass wir unterschiedlichen Personen damit helfen können.

Allgemeines zum SEO-Lexikon

Wir befinden uns hier in unserem SEO-Lexikon. Dies bedeutet, dass wir Ihnen die Suchmaschinen-Optimierung etwas näherbringen möchten, indem wir alle denkbaren Rankingfaktoren auflisten und erklären. Schließlich ist SEO alles andere als einfach und selbstverständlich. Inzwischen gibt es über 200 Ranking-Faktoren.

Die Domain-Faktoren wurden bereits besprochen.

 

Nun thematisieren wir On-Page-Faktoren. So kann ein Suchmaschinenoptimierer aber auch ein Auftraggeber immer den Überblick behalten.

So viel zum Lexikon – nun wollen wir uns dem möglichen Rankingfaktor Duplicate Content widmen.

 

Definition Duplicate Content

Duplicate Content ist der englische Fachbegriff. Übersetzt man diese Phrase, dann würde es zu Deutsch so viel wie „Doppelter Inhalt“ oder auch „Duplizierter Inhalt“ heißen. Im Prinzip beschreibt die Phrase genau das Problem. Im Index von Google gibt es dieselben Inhalte unter unterschiedlichen Domains – sofern man vom externen Duplicate Content ausgeht.

Ein kleines Beispiel zur Veranschaulichung, das in der Praxis sehr häufig vorkommt. Online-Shops vertreiben Produkte, die von großen Lieferanten versendet werden. Oftmals stellen die Lieferanten eine Produktbeschreibung zur Verfügung. In den meisten Fällen werden diese einfach übernommen. Nun haben verschiedene Online-Shops dieselbe Produktbeschreibung.

Interner Duplicate Content ist ein weiteres Problem beim SEO. Dies liegt in der Regel an Fehlern der Struktur. Beispielsweise kann man dieselbe Website unter verschiedenen URLs aufrufen. Dies tritt oftmals ein, wenn man eine https-Seite besitzt und keine korrekten Umleitungen eingebunden hat.

Diese Fehler sind nicht zu unterschätzen. Teilweise sind dies die entscheidenden Faktoren, weshalb ein SEO-Projekt scheitert. Allerdings möchten wir hier bereits sagen, dass interner Duplicate Content definitiv weniger schlimm ist. Die meisten Suchmaschinen haben hierfür sehr gute Filter, sodass die Linkkraft eigenständig umgeleitet wird. Zu diesem Thema kommen wir aber später noch einmal zu sprechen.

 

Was sieht Google als Duplicate Content?

Auch hierzu gibt es ein Video von John Mueller, ebenfalls Mitarbeiter bei Google. Er erläutert, was die Suchmaschine unter doppelten Inhalt abstempelt. Jedoch sind dies nur Pauschalisierungen und einige Beispiele. Es gibt noch weitaus mehrere Quellen für diesen Fehler.

  • Presse-Mitteilungen
  • Tag-Seiten (WordPress-Tags geschickt einsetzen oder vermeiden!)
  • Unterschiedliche URLs für mobile Endgeräte
  • Unterschiedliche URLs für Drucker
  • CDN-Anbieter (CDN: Content-Delivery-Network)
  • http/https, www/kein www, index.html à interner Duplicate Content wird später nochmal behandelt
  • Exakt gleicher Inhalt auf unterschiedlichen Domains

John Mueller hat ebenfalls gesagt, was nicht als Duplicate Content zählt.

  • Übersetzungen
  • Unterschiedliche Seiten mit unterschiedlichem Inhalten jedoch gleichen Titeln und Meta-Daten
  • Regionale Nachrichten (allerdings nur manchmal)
  • Inhalte in Apps

 

Versteckte Keywords werden auch gefunden

Bei diesem Thema scheiden sich die Geister. Wir sind der Auffassung, dass interner Duplicate Content weniger schlimm als externer ist. Denn oftmals kann man für diese Fehler gar nichts. Es kann schnell bei einer großen Seite passieren, dass man nicht die passenden 301-Redirects (Umleitungen) eingerichtet hat oder, dass das Content-Management-System mehrere Seiten mit denselben Inhalten erstellt.

 

Denn es entstehen oftmals Übersichtseiten, auf denen einige Beiträge mehrmals gelistet werden. Deswegen nutzen wir für unsere Blogbeiträge niemals Tags. Folgende Seiten entstehen beispielsweise bei WordPress:

  • Filter-Seiten
  • Tag-Seiten
  • Kategorie-Seiten
  • Pagination

Google selbst sagt, dass solche Probleme einfach ignoriert werden. Allerdings empfehlen wir, dass solche Fehler auch zu vermeiden sind. Denn dadurch kann man das Crawl-Budget von Google viel effizienter nutzen und Google wird es einem auch danken. Schließlich muss die Suchmaschine selber weniger Arbeit leisten und man signalisiert, dass man sich um die Webseite gut kümmert.

Externer Duplicate Content – Achtung!

Externer Duplicate Content ist das Hauptproblem. Hierzu gibt es auch mehrere Videos, die wir für Sie einmal eingebunden haben. Allerdings ist doppelter Inhalt nicht nur Inhalt, den man per Copy-and-Paste eingebunden hat. Inzwischen kann Google auch erkennen, ob voneinander abgeschrieben wurde. So entsteht auch Near-Duplicate-Content.

Die meisten Probleme haben wir hierbei schon benannt. Beispielsweise zählt dazu Content-Scraping, Content-Diebstahl, Pressemitteilungen und vieles mehr.

Matt Cutts sagt das folgende zu externen Duplicate Content:

Oben haben wir das Problem mit mobilfreundlichen URLs genannt. Jedoch gibt es hierzu eine Lösung. Man sollte, so Cutts, dem Google Bot mobile die mobile Seite ausliefern und dem Standard-Bot die normale Seite. Schließlich hat Google unterschiedliche Bots, die die Seite crawlen.

Auch hierzu gibt es ein etwas aktuelleres Video:

Wird Duplicate Content abgestraft?

Matt Cutts hat zu dieser Frage ebenfalls ein Video veröffentlicht:

Im Prinzip wird gesagt, dass Google Duplicate Content an sich nicht abgestraft wird. Allerdings werden diese Seiten dann teilweise nicht im Index gelistet. Schließlich bietet man dem Suchenden keinen Mehrwert, wenn derselbe Artikel mehrmals für ein Keyword gelistet wird.

Damit dies nicht passiert, haben wir einige Tipps für Sie. Diese werden aber erst später aufgeführt.

Allerdings kann es in Ausnahmefällen dennoch passieren, dass die Seite abgestraft wird. Dies tritt beispielsweise ein, wenn Google davon ausgeht, dass beabsichtigt der Inhalt kopiert wurde und dadurch die Suchmaschinenergebnisse manipuliert werden sollten. Google zeigt dann nur eine Version an und wird bei häufigeren Auftreten solcher Fälle bei einer Domain die Sichtbarkeit senken.

Google sieht dieses Problem nicht als Spam an. Hier gilt aber ebenso, dass man es nicht übertreiben sollte. Schließlich wird die Sichtbarkeit ansonsten gesenkt.

 

Wer hat den Text zuerst veröffentlicht?

Es gab schon einige Fälle, wo der eigentliche Urheber des Textes dann keine Sichtbarkeit erhielt, da eine andere Seite seinen Text klaute und dieser schneller indexiert wurde. Das ist ein schwerwiegendes Problem. Denn große und bekannte Seiten werden öfter von Google gecrawlt als kleine Seiten.

In solchen Fällen kann man die andere Seite nur per Mail anschreiben und fragen, ob die Seite wenigstens die ursprüngliche Seite verlinken kann. Es gibt auch die Möglichkeit Onpage-Kopien per HTML-Code zu markieren.

Dies nutzen wir beispielsweise für unsere Pressemitteilungen. Dadurch macht man dem Googlebot deutlich, welche Seite der eigentliche Urheber ist.

Ferner veröffentlichen wir unsere Inhalte erst in den Presseportalen, wenn unsere Inhalte bereits indexiert sind. Teilweise wird eine Seite schneller indexiert, wenn man diese in der Google Search Console einreicht. Allerdings ist dies ein anderes Thema.

 

Lösungen für Duplicate-Content

Wir haben nun einige Lösungsvorschläge für Sie, wie Sie das Problem beheben können. Wichtig ist hierbei, dass Sie auch auf den Leser und die Suchmaschine zugleich achtet.

Die beste Lösung ist deswegen ein Canoncial-Tag. Diesen baut man in den <head>-Bereich eines HTML-Dokumentes ein. So kann man dem Bot sagen, wo der ursprüngliche Text aufzufinden ist. Zum Thema Canonical-Tag gibt es eine ausführliche Seite. Diese erklärt alles um diesen Tag.

 

Des Weiteren könnte man dann auch 301-Weiterleitungen einrichten. Allerdings erfüllen diese in jeglicher Hinsicht keinen Zweck. Deswegen sollte man diese Lösung eher vermeiden.

Wenn Duplicate Content entsteht, weil man URL-Parameter nutzt, dann kann man dies in der Google Search Console lösen. So werden doppelte Inhalte vermieden. Wie dies funktioniert, erklärt Google in diesem Artikel.

Oftmals bindet man Duplicate Content ein, weil man selbst keine Idee hat, über welche Inhalte man schreiben kann. Wir haben einen Artikel verfasst, wie Sie eine erfolgreiche Content-Marketing Strategie entwickeln können.

Auch Google hat hierzu einige Tipps gegeben. Diese führen wir einmal stichpunktartig auf. Bei Fragen können Sie uns gerne kontaktieren.

  • Eine Seite behandelt ein Thema und ein Keyword
  • Interne Verlinkung hilft Google das Thema einer Seite zu erkennen
  • Eine URL pro Inhalt
  • Geotargeting nutzen (hreflang-Tag)

Ähnliche Inhalte zusammenführen

Duplicate-Content Checker

Es gibt unterschiedliche Tools, die teilweise kostenpflichtig sind, die Sie dabei unterstützen, doppelten Inhalt zu finden. Wir nutzen hierfür am liebsten copyscape.com. Man kann einige Anfragen kostenfrei bearbeiten lassen. Ferner kann man sogar zwei Artikel miteinander vergleichen.

Wenn Sie die Premium-Version nutzen, dann sehen Sie weitaus mehr Ergebnisse. Für die grundlegende Recherche reicht allerdings die kostenfreie Version.

Darüber hinaus gibt es auch noch Tools von Sistrix. Allerdings kostet Sistrix deutlich mehr als Copyscape. Wenn Sie bereits bei Sistrix einige Module gebucht haben, dann können Sie diese auch weiterhin nutzen und Ihre Seite auf Duplicate Content überprüfen lassen.

 

Rankingfaktor Duplicate Content – abschließende Worte

Sie sollten Seiten, die Duplicate Content enthalten, auf keinen Fall über die Robots.txt sperren. Denn dadurch kann Google die Seiten nicht besuchen und diese selbst bewerten. Auch das URL-Removal-Tool sollte man nicht nutzen. Dann wird die Seite gar nicht mehr im Index angezeigt.

Wir hoffen, dass wir die Signifikanz von Duplicate Content deutlich machen konnten. Das Problem muss auf jeden Fall kontrolliert werden können.

 

Sie sollten Ihre Seite deswegen regelmäßig überprüfen und solche Fehler dann korrigieren.

Ferner können Sie einige Tools so einstellen, dass Sie benachrichtigt werden, wenn Duplicate Content bei einem Crawl auftritt. Es ist wichtig, dass Sie solche Probleme dann schnell beseitigen.

 

Vertreten durch:

Geschäftsführer:
Daniel Gurrieri,
Giuseppe Gurrieri,
Michael Fiedler

icon3   +49 (0) 731 880 7070
icon2    info@unovision.de
icon1    www.unovision.de

Wichtig: Diese Website verwendet Cookies, die Tracking-Informationen über Besucher enthalten können. Durch die weitere Nutzung dieser Website stimmen Sie der Verwendung von Cookies zu.