Contentverdichtung, holistische Texte und Belanglosigkeit – Darum ranken Deine Texte nicht

In diesem Artikel möchte ich Dir erklären, warum diverse Mechanismen in den Suchmaschinen nicht mehr so funktionieren, wie es vielleicht noch vor 3 Jahren der Fall war. Gerade Google ändert seinen Algorithmus bekanntermaßen öfter, als Bravo-Teenies ihren Beziehungsstatus auf Facebook. Es wird daher immer schwieriger zu den gewünschten Keywords gute Rankings zu erzielen und so fragen sich sehr viele Webmaster, Content-Manager und verantwortliche Online-Redakteure, wie sich die Positionierung in den SERPs über den Text einer Webseite beeinflussen lässt. Das Prinzip ist so einfach, wie erschreckend kompliziert: Biete den besten Inhalt zu Deinem Thema!

Was letztendlich der „beste“ Inhalt ist, darüber scheiden sich die Geister und sie scheiden sich völlig grundlos. Nicht der Online-Redakteur entscheidet welcher Inhalt der beste zu einem Thema ist, sondern die Zielgruppe, die Intention und die Bedürfnisse des Users. Bleibt immer noch eine Frage: Woher weiß der Texter, was der User will? Die Antwort: Er weiß es nicht, aber er kann für alle Eventualitäten gewappnet sein. Fangen wir also mit einer kleinen Zusammenfassung an, wie Texte auf keinen Fall mehr geschrieben werden sollten und arbeiten uns langsam zum „Next Level Content Writing“ vor.

contentverdichtung

Holistische Keyworddichte = 100%, oder?

Immer dann, wenn jemand „Keyworddichte“ sagt, verliert ein Texter der Legende nach seine Fähigkeit kreativ zu schreiben. An dieser Behauptung ist mehr dran, als Du denkst. Besonders die großen Contentfarmen haben diesen übermächtigen Begriff zelebriert, standen sie doch vor einem großen Problem: „Wie gebe ich dem Kunden das Gefühl, dass er die Wirkung eines Textes auf die Suchmaschinen über einen frei definierbaren Wert beeinflussen kann? Richtig! Mit der Keyworddichte. 3% Staubsauger, 3% Staubsaugerbeutel, 3% Staubsaugerbeutel Test, 3% Staubsaugerbeutel günstig und im letzten Absatz noch einen Pitch zu den besten Staubsaugerbeuteln auf Amazon.de – fertig war der SEO Text.

Im Verhältnis zur bisherigen und noch kommenden Lebenszeit des Internets, hat diese Taktik für den Bruchteil einer Sekunde auch funktioniert. Aber wie der Mensch so ist, wurde der vorhandene Spielraum ausgenutzt, um sich einen Vorteil zu verschaffen. Wer schon einmal 500 Texte á 350 Worte mit vorgegebener Keyworddichte und einem absolut identischen Aufbau bestellt und auf der eigenen Seite gepostet, danach jedoch trotzdem nicht mehr als 50 Besucher am Tag verzeichnet hat, weiß, wovon ich schreibe.

Google hatte nichts Böses im Sinn, denn wer zu einem Thema das meiste zu sagen hat, wird schon die Wahrheit erzählen. Ironie an: Die Nummer war relativ schnell ausgelutscht und spätestens bei einer „holistischen Keyworddichte“ von 100% war ein Text auch nicht mehr wirklich lesbar. Ironie aus! Mit anderen Worten war das Keywordstuffing geboren, wurde jedoch im gleichen Augenblick wieder begraben. Taktiken, mit denen Google sich austricksen ließ hatten jedoch einen Nachteil: Sie verbissen sich in den Köpfen der Online Marketer und Webmaster. So kam es, dass der Begriff „Keyworddichte“ über 37,2 Ecken zu einem Rankingfaktor wurde. Aus heutiger Sicht wirklich seltsam, oder?

Warum Google dieses Spiel nicht mehr mitmachen wollte

Findige Webmaster kreisten um das Schlupfloch in diesem gewinnbringenden System, wie die Motte um das Licht. Täglich wurden weltweit Millionen von Webseiten und Landingpages ins Netz gestellt, die nur ein Ziel hatten: Den Besucher abgreifen und eine Conversion auslösen. Contentfarmen erleichterten diesen Vorgang noch, indem sie APIs einrichteten, mit denen Texte automatisch in CMS eingepflegt und veröffentlicht werden konnten. Im Prinzip also Stangenware von der es nur eine Farbe und eine Größe gab, die trotzdem aber jedem User gefallen musste, egal mit welcher Intention er auf die Suche gegangen war.

Es wurde für das Quality-Team von Google Zeit sich etwas einfallen zu lassen. Die Hauptaufgabe von Google ist die Bereitstellung des bestmöglichen Suchergebnisses. Letztendlich kam es aber zu einer Überschwemmung der SERPs mit mehr oder weniger hilfreichen Seiten und der User stand oft vor dem Problem, nicht die gewünschten Informationen zu finden, weil der Spam sich in den Vordergrund gestellt hatte.

Zusätzlich solltest Du nicht vergessen, dass der Google-Bot jeden Tag viele Milliarden Webseiten crawlen muss. Das verschlingt Unmengen an Ressourcen. Wie Prof. Dr. Mario Fischer, Herausgeber der Website Boosting kürzlich in einem Beitrag auf Facebook kommentierte, erfasst der Bot pro Sekunde ca. 50 Millionen Webseiten. Pro Sekunde! Es ist also leicht verständlich, dass Google daran gelegen ist, nur so viele Webseiten wie nötig zu crawlen.

Kurz gesagt:

  • Es waren zu viele schlechte Webseiten in den SERPs
  • Viele Texte boten den Lesern keinen Nutzen
  • Google lässt sich nur ungern austricksen
  • Die Keyworddichte wurde zerhackt, püriert und entsorgt

Um es in den Worten von heftig zu sagen: „Die Keyworddichte machte ihren letzten Atemzug, doch was dann geschah…“.

Plötzlich gab es ganz besondere „Spezialisten“, die den Schwellenwert einführten. Die Keyworddichte hatte ab sofort also einen richtig echten Schwellenwert. Lag sie unter diesem Wert, war ein Text total gut, total hilfreich und total weit vorne. Lag sie über diesem Wert wurde ein Text als Spam abgewertet. Zack, so einfach war das damals. Etwas vereinfacht gesagt. Schwierig war einzig und allein die Tatsache, dass jeder einen anderen Schwellenwert für sich beanspruchte. Während manch einer schon bei einer Keyworddichte von 2% zufrieden war, kamen andere erst bei satten 10% so richtig in Fahrt. Der Kreativität waren keine Grenzen gesetzt. Den zufälligen Rankings allerdings auch nicht.

„Der Wettbewerb arbeitet mit einer Keyworddichte von 3,5%? Wir nehmen 4%, dann kann der mal sehen wo der rankt!“

Kommt Euch das bekannt vor? Mir auch, denn ich musste Kunden immer wieder erklären:

  • warum Keyworddichte nicht = Rankingerfolg war
  • warum eine Webseite trotz geringerer Keyworddichte deutlich besser als das eigene Projekt rankte
  • warum der Leser bei einem gestufften Text leicht der Annahme unterlag, die Keywords wären von Primaten per Zufalltaste in den Text gestopft worden
  • warum „einfach“ nicht immer der beste Weg ist
  • warum ich trotz Kaffee in unbegrenzter Menge bei diesem Thema grundsätzlich müde werde

WDF*IDF – Dann wurde alles besser, oder?

Diesem Thema möchte ich an dieser Stelle nur einen begrenzten Raum zusprechen. Nachdem das Thema damals bearbeitet, analysiert und publiziert wurde, schlug eine neue Welle der Content-Wunderwaffen durch das Land: „Mach mir den WDF*IDF Text und ich ranke alle aus dem Weg!“. Das nächste Buzzword war geboren und wieder entwickelten sich zahlreiche unterschiedliche Meinungen, wie man mit dem Thema umzugehen hatte. Das Verständnis fehlte einfach, weil es vielen wieder nur um schnelle Rankings zu wichtigen Keywords ging.

Nachdem die Toolanbieter Lösungen entwickelt hatten und jedem nun ein WDF*IDF Tool seiner Wahl zur Verfügung stand, erkannten immer noch nicht alle die Bedeutung des folgenden Satzes:

„WDF*IDF Texte können auch ohne Nutzen für den User schlecht ranken!“

Alle waren plötzlich optimiert. Jeder konnte die Termgewichtung jedes noch so unwichtigen Blog-Hohlsinns analysieren und sich schöne bunte Grafiken anzeigen lassen.

  • Agentur: „Sehen Sie hier die Kurve? Das ist die maximale Ausprägung des Keywords. Die Kurve ihrer Seite liegt nur knapp darunter.“
  • Kunden: „Und auf welchem Platz ranken wir?“
  • Agentur: „73, aber das wird schon!“

Natürlich funktioniert WDF*IDF und natürlich muss ein Keyword einen gewissen Stellenwert in einem Text einnehmen. Doch das ist noch lange nicht alles. Es gehört inzwischen so viel mehr dazu, einen ganzheitlichen Text zu schreiben, der vernünftige Rankings erzielen kann.

Obwohl ein großer Teil des veröffentlichten Contents WDF*IDF optimiert wurde, war dies kein Garant für gute Rankings. Und waren Rankings vorhanden, klaffte immer noch eine Lücke zwischen diesem ersten Zwischenziel und der finalen Conversion. Irgendwas stimmte mit dem Content also nicht. Dabei waren doch alle wichtigen Begriffe in der vom Tool vorgegebenen Weise verbaut. Spontane Interpretationen der Formel sorgten sogar dafür, dass bei drei verschiedenen Toolanbietern auch drei verschiedene Texte mit unterschiedlichen Keywords entstanden. Du siehst also schon, wo der Hund in der Pfanne verrückt wurde: Der Leser hinter der IP-Adresse wurde plötzlich wiederentdeckt.

Auf Wiedersehen Keyword-Statistiken – Hallo Mehrwert

Plötzlich gab es einen regelrechten Aufschrei im Netz. Texte mussten plötzlich einen Mehrwert haben. Einen Nutzen. Eine Aufgabe, die sie gefälligst zu erfüllen hatten. Das war für viele Webmaster ein Schock. Nachdem die guten alten Techniken so lange einwandfrei funktioniert hatten, sollte ein Teil der Aufmerksamkeit nun auch auf den Content gerichtet werden? Schwer zu verstehen, handelt es sich dabei doch „nur“ um das, was der Besucher zu sehen bekommt. Also fast schon irrelevant.

Google hatte jedoch die gleiche Idee und versuchte immer besser darin zu werden, den Mehrwert eines Textes zu erkennen und zwar aus vielen verschiedenen Blickwinkeln. Zum ersten Mal fielen Begriffe wie „holistische Texte“ oder „ganzheitliche Texte“. Einem Herzblut-Texter wie mir fiel es schwer sich vorzustellen, welchen Nutzen ein „nicht ganzheitlicher“ Text wohl hatte.

Nun kamen die Seitenbetreiber und Webmaster des Landes auf eine neue Idee. Wie liefert man alle wichtigen Inhalte zu einem Keyword für die Suchmaschinen? Richtig!

„Es muss einfach nur zu jedem Keyword und zu jeder Variation ein eigener Text geschrieben und veröffentlicht werden. Dann kann Google sich immer genau die URL raussuchen, die gerade perfekt passt.“

doppelte-suchergebnisse

Zum Suchbegriff „Bester Gartenschlauch“ zeigt dieses Portal gleich 3 Seiten nacheinander im Index auf den Plätzen 14,15 und 16. Man sieht deutlich, dass die Keywords in Title und Description einfach wahllos platziert wurden. Hier wurden die Keys „Gartenschlauch Test, Gartenschlauch Testsieger und Gartenschlauch Test 2016“ regelrecht ausgeschlachtet.
Scheinbar überschneiden sich die Inhalte der URLs, weshalb Google 3 URLs auf relativ schlechten Plätzen rankt.
Würden die Informationen auf einer URL kurz und knackig präsentiert, stünde einem TOP 10 Ranking sicherlich nichts im Weg.

Auch das hat für einen kurzen Moment funktioniert, führte langfristig aber nicht zu dem gewünschten Ergebnis, weder für den User, noch für Google. Folgende Probleme entstanden:

Es gab zu einem Suchbegriff häufig viele verschiedene URLs einer Domain im Index. Das passierte immer dann, wenn die Relevanz einer Seite zu sehr einer anderen Seite der gleichen Domain ähnelte. Gehen wir davon aus, dass eine Seite viele URLs mit ähnlichen Inhalten indexiert. Je Keyword also eine URL:

  • Reisewecker
  • Reisewecker Test
  • Reisewecker Vergleich
  • Bester Reisewecker
  • Etc.

Die Chance, dass Google keiner der Seiten die gewünschte Relevanz zu „Reisewecker“ zuordnet, ist relativ groß.

Die Chance, dass Google einer dafür nicht vorgesehenen Seite die Relevanz für den Suchbegriff „Reisewecker“ zuordnet, ist ebenfalls relativ groß

Zeitgleich fiel in diesem Zeitraum auch der Begriff „Machine Learning“. Damit wären wir dann endlich in der Gegenwart angekommen.

Suche ist nicht gleich Suche – Machine Learning

Google spricht plötzlich immer öfter von einer intelligenten Suchmaschine bzw. von einer künstlichen Intelligenz, die eine Suchabsicht schon vor der Äußerung der Absicht erkennen kann. Je nach Suchbegriff weiß die Suchmaschine, ob man als Handwerker gerne „schön nageln“ können, oder ob man einfach nur ein „spezielles“ Wochenende verbringen möchte. Im Laufe der Jahre hat Google eine so große Datenmenge gesammelt, dass anhand dieser Daten fortwährende Wahrscheinlichkeitsrechnungen durchgeführt werden, welches Ergebnis zu welchem Suchbegriff passen könnte. Mögliche Kriterien könnten beispielsweise sein:

  • Auf welchem Gerät wird gesucht?
  • Wie wird gesucht? (Tastatur oder Spracheingabe)
  • Wo wird gesucht?
  • Mit welcher Wortwahl wird gesucht?
  • Zu welcher Uhrzeit wird gesucht?
  • Wo wurde gegebenenfalls vorher schon gesucht?
  • Aus welchem Grund wird gesucht?
  • Welche Seiten wurden nach kurzer Zeit wieder verlassen?
  • Welche demografischen Merkmale bringt der Suchende mit?
  • Welche Interessen hat der Suchende?

Das Problem welches hierbei entsteht:

„Google findet zu den Milliarden an Datensätzen nur selten Inhalte, die ALLEN Ansprüchen genügen.“

Es gibt eine Differenz zwischen den vorhandenen Daten, die sich aus den oben genannten und vielen weiteren Punkten zusammensetzen und den Informationen, die von den meisten Webseiten geliefert werden. Ich würde wirklich gerne wissen, wie oft der Algorithmus von Google entscheiden muss:

„Keine passende Seite zum Suchterm vorhanden? Ach komm, dann nehmen wir halt die hier. Passt am ehesten….“

keine-relevanten-seiten-vorhanden

So sehen die SERPS beispielsweise aus, wenn keine Seite die passenden Inhalte liefert. Dann wird in vielen Fällen Amazon als „Platzhalter“ herangezogen. Das ist übrigens für mich immer ein halbwegs brauchbarer Indikator, ob es Wettbewerb zu einem Thema gibt, bevor ich ein Tool anwerfe.

Natürlich sind die Abläufe deutlich komplizierter. Es gibt garantiert mindestens noch einen Studenten, der sich das im Quality-Rating-Prozess in 30 Sekunden nochmal GANZ genau ansieht. Okay, Scherz beiseite.

Das Problem mit der Relevanz – Die Idee mit der Relevanz

Alle wollen relevant sein. Auch Webseiten wollen und sollen relevant sein. Doch wie lässt sich so eine Relevanz erzielen? Ich spreche hier nicht von Linkbuildung und anderen Maßnahmen. Es geht hier um den Inhalt von Webseiten, der unter exakt gleichen Voraussetzungen, sozusagen in einem Reinraum, betrachtet wird.

  • Relevanz lässt sich immer dann erzeugen, wenn jemand Ahnung von einer Thematik hat.
  • Das lässt sich wiederrum beweisen, indem jemand alle Fragen zu einer Thematik beantworten kann.
  • Alle Fragen beantworten bedeutet nicht, möglichst lange Antworten zu geben. Die richtigen Antworten reichen meistens schon aus.
  • Ein kurzer Text kann deutlicher relevanter zu einem Thema sein, als ein 2000-Wörter-Keyword-Monster

Google schlägt dementsprechend einen anderen Weg ein. Nachdem man viele Jahre lang alle URLs gerankt hat die zu einem Keyword gepasst haben, werden einzelne Inhalte nun differenzierter und gleichzeitig ganzheitlicher betrachtet.

relevanz-erzeugen

Der E-Zigaretten Shop wird unter dem Begriff E-Zigarette auf Platz 1 oder Platz 2 gerankt. Der Contentblock im oberen Bereich ist der einzige Textinhalt auf der Seite. Trotzdem erhält die Seite Top Platzierungen bei Google. Es gibt also deutlich mehr Indikatoren für Relevanz, denn gleichzeitig rankt der Shop unter „E-Zigarette kaufen“, „E-Zigarette Shop“ und vielen weiteren Begriffen mit dieser URL auf dem ersten Platz.

Wie wir oben gelesen haben, führt Google pro Sekunde 50 Millionen Crawls durch. Webseiten, die alle wichtigen Inhalte auf nur einer einzigen URL bereitstellen, erleichtern Google die Arbeit, sparen Ressourcen und bringen dem User endlich den geforderten Mehrwert der ganzheitlichen Information. Google testet immer wieder, wie Suchenende auf bestimmte Webseiten reagieren:

  • Wie lange bleibt jemand auf einer Seite?
  • Wonach sucht er, nachdem er die Seite gesehen hat?
  • Welchem Teil der Webseite schenkt der Leser besonders viel Aufmerksamkeit?

und vieles mehr.

Holistische Texte und die ganzheitliche Betrachtungsweise

Im Prinzip geht es darum den Suchmaschinen zu verdeutlichen, dass sie auf einer Webseite möglichst alle Informationen zu einem Thema finden. Google erkennt, dass eine einzige URL die passenden Ergebnisse zu unzähligen Suchtermen liefern kann und belohnt dafür mit einem dicken Batzen Traffic. Ein Wettbewerber rankt zu fast jedem wichtigen Keyword eines Themengebietes mit einer einzigen URL? Dann hat er wohl:

  • einen ganzheitlichen Text geschrieben oder schreiben lassen
  • schnelle Ladezeiten
  • eine gute Usability
  • eine gute Portion Link-Magie (gerne auch per Einhorn)
  • eventuell noch dynamische Inhalte

Die Vorteile für Google:

  • weniger Serverlast
  • weitestgehend saubere SERPs
  • zufriedene User

Contentverdichtung als Gegenmaßnahme

Wenn Du also eine Webseite betreibst und auch irgendwann mal dachtest, dass Du mit einem Text je Keyword super zu allen Anfragen ranken würdest, solltest Du dich aktuell mit dem Thema Contentverdichtung beschäftigen. Hierbei geht es nämlich darum, vorhandene oder geplante Inhalte so zu verdichten, dass Sie auf eine einzige URL passen. Aus welchem Grund hast Du weiter oben ja gelesen. Mach den User glücklich, dann machst Du Google glücklich. Und wenn Google glücklich ist, dann sind ALLE glücklich, oder?

Wie denkst Du über die aktuellen Buzzwords: „Ganzheitlich“, „holistisch“, „Contenverdichtung“ und „Relevanz“?

10 Antworten
  1. Micha
    Micha says:

    Sehr guter Artikel! Da ich noch nicht so lang Online Marketing mache, waren mir die alten Methoden gar nicht bekannt. Trotzdem hatte der Artikel mir guten Input geben können.
    Gruß Micha

    Antworten
  2. Marc
    Marc says:

    Hallo Oliver, vielen Dank für diesen unterhaltsamen und lehrreichen Artikel. Auf der Zeitreise durch die Welt des Textens, musste ich mehrfach schmunzeln. Echt stark analysiert und auf den Punkt gebracht. Aktuell beobachte ich ebenfalls, dass der Google-Algo Texte bevorzugt, die möglichst viele Fragen aufeinmal und ohne Umschweife beantworten. Die KI des Google Assistant läuft und gewichtet die Usersignals genauer als je zuvor. Ein Plus für gute Texte. 🙂

    Antworten
  3. Jan
    Jan says:

    Wow,
    Das waren viele Informationen auf
    Einmal, aber sehr hilfreich für mich.
    Ich bin auch grad dabei meine Website zu optimieren und habe auch schon mehrfach keywords rausgenommen die zu häufig vor kamen. Ranke seit dem besser!
    Werde nun noch Bischen Raumproblemen und deine Ansicht bzw. Tipps anwenden und dann gucken wir mal ob aus Platz 5 Platz 1 wird!!!

    Antworten
  4. Ralf
    Ralf says:

    Hallo Oliver,
    mittlerweile bin ich dazu übergegangen die Texte einfach nur noch so zu schreiben, wie ich das Thema einer anderen Person auch erzählen würde. Ich achte da gar nicht mehr auf die Keywörter. So kommen schwankungen zwischen 1 und 6 Prozent heraus. Und das komische ist, in den meisten Fällen funktioniert es auch. Vielleicht sind wir alle zur Zeit etwas zu technisch getrieben und sollten unsere Leser wieder in den Vordergrund stellen.
    Vielen Dank für Deinen Artikel.

    Antworten
  5. Patrick
    Patrick says:

    Hy Oliver,
    einer der besten Artikel, dich ich seit langem zu Texten gelesen habe!
    Welche Technik würdest du für die Contentverdichtung vorschlagen, um möglichst relevante Texte zu bekommen? Hast du Tools, wo du herausfindest, was relevant ist und was nicht?
    Grüße

    Antworten
    • textranking
      textranking says:

      Hi Patrick,

      zunächst kannst Du über das Suchvolumen eines Keywords ja erkennen, ob danach gesucht wird oder nicht. Ich versuche mir vorzustellen, was den Kunden wohl an einem Produkt oder einer Dienstleistung oder einem Thema interessiert. Dann arbeite ich eine Art Interview mit mir selbst aus. Ich stelle Fragen zum Thema und beanworte diese so, dass ich selbst damit zufrieden wäre. Verdichten ist ja jetzt keine Zauberei, sondern eher eine Zusammenfassung verschiedener (aber inhaltlich ähnlicher) URLs.

      Tools für die Keywordrecherche gibt es viele, da möchte ich jetzt keinen Anbieter bevorzugen.

      Antworten
  6. Tobi
    Tobi says:

    Mit den Buzzwords ist es so eine Sache. Ich habe bisher wenig von Keyworddichte und WDF*IDF gehalten. Ganz einfach, ein Text muss informativ sein und das Thema präzise abhandeln. Die Keywords sollten drin sein, mehr aber auch nicht. Eine Dichte ist genauso unsinnig wie die Termgewichtung der Top-Suchergebnisse. Diese kann sich ja beliebig ändern, wenn ein neuer Text mit anderen Wörtern plötzlich in den Top 10 rankt.

    Was hingegen stark unterschätzt wird, ist der Traffic, den eine Seite bzw. ein spezieller Text hat. Ich habe in Tests schon vielfach die Erfahrung gemacht, dass Seiten auch ohne viel Text und Links trotzdem gut ranken, wenn sie Traffic von einem relevanten Referrer erhalten.

    Antworten

Hinterlassen Sie einen Kommentar

Wollen Sie an der Diskussion teilnehmen?
Feel free to contribute!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *