24/03/2019

Content Marketing und SEO: Hand in Hand erfolgreich

Für die Nutzer ist die Google-Suchmaschine im Grunde genommen immer gleich geblieben. Das Google-Doodle wechselt zwar täglich, der Konzern Google hat stetig neue Dienste – von Gmail über YouTube bis hin zu Android – eingeführt, aber die Suchmaschine blieb immer dieselbe. Eine schlichte Eingebemaske, in der man seine Suchbegriffe eingibt, und Google listet anschließend die Treffer geordnet nach Relevanz auf.

Die gute alte Google-Eingabemaske.

Die gute alte Google-Eingabemaske.

Hinter der Oberfläche von Google hat sich jedoch enorm viel getan. Und das mit enormen Folgen für den gesamten Online-Marketing-Bereich. Die Suchmaschine ist auch noch 2015 die Cash-Cow des gesamten Konzerns, fast der gesamte Unternehmensgewinn resultiert aus der Google-Suche. Deshalb ist das Unternehmen beständig bestrebt, die Suchmaschine zu verbessern, um den Marktanteil (in Deutschland mehr als 90%!) nicht nur zu halten, sondern auszubauen.

Google investiert in die stetigen Verbesserungen sogar enorm viel Manpower – nur kriegt man von Außen davon eigentlich so gut wie nichts mit, schließlich sieht die Suchmaske ja immer gleich aus. Die Verbesserungen betreffen dabei maßgeblich das Ranking der Treffer. Wer liegt beispielsweise im (generischen) Trefferbereich auf Platz 1, wenn man die Suchbegriffe Video online schauen eingibt? Und wer landet mit seinem Angebot auf Platz 2, 3, 4, 5? Oder erst auf der zehnten Seite? Google ist – um die dominante Position im Suchmaschinenmarkt nicht zu verlieren – permanent bestrebt, die Relevanz der Ergebnisse zu verbessern, also möglichst genau das, was der Nutzer sucht, auf Platz 1 zu heben.

Den Internet-Nutzer kann diese Entwicklung natürlich freuen, schließlich will er die “guten Sachen” möglichst schnell finden. Und sich eben nicht durch zwanzig Schrott-Treffer wühlen. Für den Webseiten-Betreiber (bzw. den Online-Marketing-Verantwortlichen) stellt die permanente Verbesserung jedoch enorme Probleme dar, wenn er weiterhin kostenlosen Traffic durch eine gute Suchmaschinenplatzierung erzielen will.

SEO: Keyword-Dichte und Backlinks reichen nicht mehr

Früher haben sich viele SEO-Verantwortliche bei der Suchmaschinenoptimierung vor allem auf Backlinks und die Keyword-Dichte gestürzt. Es wurden möglichst viele Backlinks erstellt (teilweise sogar gekauft) und die relevanten Keywords wurden immer und immer wieder in den Texten untergebracht – gerne sogar mit einer durchgehenden Keyword-Dichte von 4%, weshalb sich viele Texte so gelesen haben, als hätte ein schlecht programmierter Computer sie für die Webseite geschrieben. Mit Backlinks auf Linkportalen und Schrott-Content konnte man damals Google noch überlisten und für eine sehr hohe Einstufung im Suchmaschinen-Ranking erzielen.

Die Zeiten sind jedoch vorbei, Google ständigen Verbesserungen (gerade die großen Updates) haben dazu geführt, dass der Suchmaschinenriese nicht nur deutlich mehr Kriterien zur Relevanz-Einstufung heranzieht, sondern viel besser guten Content von Schrott-Content unterscheiden kann. Ähnliches gilt für Backlinks, diese müssen nicht nur so “natürlich” wie möglich entstanden sein, sie müssen auch aus einem möglichst relevanten Umfeld kommen, also von Seiten, die selbst guten Content bieten und von Google hoch eingestuft sind.

Content Marketing und SEO: Erfolg durch Verzahnung

2015 bringen die aufwendigsten OnPage- und OffPage-SEO-Maßnahmen nur noch wenig, wenn die Seite nicht mit gutem Content aufwarten kann. Lässt man hingegen SEO vollkommen außer Acht, so schmeißt man Perle vor die Säue, man verschenkt wertvollen Traffic, der ansonsten über die Suchmaschinen (und da natürlich vor allem von Google) gekommen wäre. Heutzutage sind die Suchmaschinen so gut, dass sie guten von schlechten Content unterscheiden können, gleichzeitig sollte ihnen jedoch noch ein wenig mittels SEO unter die Arme gegriffen werden.

Kurz: Gutes Onlinemarketing zeichnet sich 2015 durch das Miteinander von SEO und Content Marketing aus.

Google “liebt” neuen Content

Einer der wichtigsten Gründe, weshalb Content Marketing fürs SEO so wichtig geworden ist, ist die Relevanz von neuem Content. Google “liebt” es, wenn auf der Webseite regelmäßig neuer Content erscheint. Und natürlich nicht irgendein – womöglich noch maschinengenerierter – Content, sondern guter Unique Content.

Google “liebt” gute Grammatik und Rechtschreibung

Zu den Qualitätsmerkmalen von gutem Content gehört mittlerweile auch Rechtschreibung und Grammatik. Google (und mit Abstrichen auch die kleinen Suchmaschinen wie Bing) ist in der Lage, “liebevoll” geschriebene Texte von Zeilenfüllern und Textbausteinen zu unterscheiden. Gute Texte machen sich hier eindeutig bezahlt!

Google “liebt” lange Verweilzeiten

Dass die Verweildauer bei Google und Co. eine große Rolle spielt, ist seit Jahren bekannt. Verweilt der Nutzer nur kurz auf der Webseite, strafen die Suchmaschinen die Webseite (bzw. die jeweiligen Unterseiten) im Ranking ab. Fürs Online-Marketing bedeutet dies, dass der Nutzer auch möglichst nur dort landet, wo er auch landen soll. Und, vor allem, dass der Content ansprechend ist, der Nutzer also vom Text (und von den Bildern, Videos, Animationen… ) gefesselt wird. (Guter) Content ist auch hier Trumpf!

Google “liebt” relevante Backlinks

Das Umfeld, aus dem die (Back-)Links stammen, die auf die eigenen Webseite und ihre Unterseiten verlinken, ist über die Jahre immer wichtiger geworden. Zum einen sollte das Umfeld stimmen (Links von Porno-Seiten bringen nicht, wenn man Babynahrung verkaufen will), zum anderen sollten diese natürlich entstehen – und das mit einer gewissen Beständigkeit, brechen die eingehenden Links plötzlich ab, so geht Google davon aus, dass die Seite einschläft. Nur, wie schafft man es, dass regelmäßig auf einen verlinkt wird? Eine Antwort ist auch hier Content, Auf guten Content wird von anderen Seiten/Blogs verlinkt, weil er überzeugt.

Google “liebt” Social Media

Google ist (noch?) nicht in der Lage, sämtliche Social-Media-Plattformen in Echtzeit und vollständig zu indizieren. Aber Google ist in der Lage, Social Signals zu registrieren. Wird im Großen Social-Media-Rauschen so gut wie nie auf eine Webseite verwiesen/verlinkt, so ist Google durchaus in der Lage, das ins Ranking einfließen zu lassen. Schließlich kann die Seite offensichtlich nicht wirklich relevant sein, wenn von Twitter/Xing/LinkedIn/Facebook nie Links kommen. Und Links von Social-Media-Plattformen generiert man vor allem durch guten, weil interessanten, Content.

Google “liebt” thematische Relevanz

Suchmaschinen sind durchaus in der Lage, die Themenschwerpunkte einer Seite zu erfassen – auch ohne menschliches Zutun. Idealerweise beleuchtet der Content die gewünschten – also die Themenbereich, zu denen man gefunden werden will – von allen Seiten und verzettelt sich nicht in anderen Themengebieten. Ein buntes Potpourri mag zwar praktisch sein, wenn man einfach nur Content auf die Webseite “wuppen” will, hilft aber auch nicht wirklich weiter. Außerdem ist es wichtig, von anderen Seiten verlinkt zu werden, die ein ähnliches Themenspektrum haben – und da ist guter, weil überzeugender, Content einfach enorm hilfreich.

Content, Trust & Authority

Unterm Strich laufen die ganzen Verbesserungen bei den Suchmaschinen darauf hinaus, dass sie immer “menschlicher” werden. “Menschlich” in dem Sinne, dass sie gute Inhalte von schlechten Inhalten unterscheiden können. Außerdem sind sie in der Lage, die Einschätzungen über einen im restlichen Netz zu erfassen: Wird der Webseite eine natürliche Autorität zugesprochen, vertrauen andere User/Webseiten ihr?

Und “Trust” und “Authority” steigen und fallen letztlich mit der Qualität des angebotenen Contents – weshalb SEO zwangsläufig auf Content Marketing angewiesen ist.

 

Diesen und weitere Blog-Artikel zu Public Relations (PR), Content, Marketing, Digitalisierung und Kommunikation gibt es im Görs Communications Blog auf https://www.goers-communications.de/pr-werbung-beratung/blog

Schaden ausgehende Links dem Suchmaschinenranking?

Schadet es dem eigenen Suchmaschinenranking, wenn man andere Seiten verlinkt? Eine Frage, die jüngst erst wieder durch die Blogs geisterte, nachdem sich Google etwas zweideutig geäußert hat – und sich mit einem klaren “Nein!” mit bestimmten Einschränkungen beantworten lässt.

Aber der Reihe nach: Das Ranking bei Google (mit einem Marktanteil von mehr als 90% in Deutschland der Quasi-Suchmaschinen-Monopolist) setzt sich aus hunderten von Faktoren zusammen, die unterschiedlich stark gewichtet werden. Und zu den wirklich wichtigen Faktoren gehören die Links, die von anderen Webseiten gesetzt werden. Dabei gilt jedoch nicht nur die Grundregel, dass viele Links viel im Suchmaschinenranking bringen, sondern es zählt auch, von welcher Seite die Links kommen.

Google-Suchergebnisse zu den Suchbegriffen PR Hamburg

Google-Suchergebnisse zu den Suchbegriffen PR Hamburg

Wird die Seite, von der man verlinkt wird, selbst häufig verlinkt, dann zählt der Link deutlich mehr, als wenn die verlinkende Webseite selbst kaum verlinkt wird. Auf gut Deutsch würde man vermutlich “Der Teufel scheißt immer auf den größten Haufen” sagen. Der Sinn dahinter ist relativ einfach: Google will das Ranking möglichst zielführend machen, also so, dass die wirklich relevanten Seiten möglichst früh angezeigt werden. Und als relevant sieht Google Webseiten an, auf die oft verlinkt werden – wäre der Inhalt nicht interessant, würden schließlich nicht so viele Links gesetzt werden. Und bei der “Qualität” der Links setzt Google auch auf dieses Prinzip, die ausgehenden Links von stark verlinkten Webseiten werden daher deutlich stärker gewichtet.

Ganz praktisch gesprochen: Da auf SPIEGEL ONLINE jeden Tag tausendfach verlinkt wird, zählt ein Link von SPIEGEL ONLINE mehr als ein Link von www.goers-communications.de oder von einer anderen PR-Agentur. In diesem Zusammhang hat es sich eingebürgert, vom Prinzip der Vererbung zu sprechen. Durch einen Link “vererben” Seiten praktisch einen Teil ihrer Stärke im Suchmaschinenranking. Verlinkt eine Seite, die hoch im Suchmaschinenranking steht, auf eine andere Seite, so steigt auch diese Seite im Suchmaschinenranking auf.

“Vererbung” ist zum Teil irreführend

Der Begriff der “Vererbung” ist jedoch auch irreführend, wenn man ihn wie in der “analogen Welt” verwendet, in der Sachen den Eigentümer wechseln, wenn man sie “vererbt”. Bei Google jedoch wird das “Vererben” anders verstanden, ein Link vererbt zwar Teile des Rankings, diese Vererbung wird jedoch nicht von der verlinkenden Seite abgezogen. Durch einen Link profitiert also die verlinkte Seite, die verlinkende Seite verliert jedoch nicht.

Damit wäre die Frage “Schaden ausgehende Links dem Suchmaschinenranking?” eigentlich beantwortet. Nein, ein ausgehender Link schadet dem Suchmaschinenranking nicht. Trotzdem hat sich jedoch ein regelrechter Linkgeiz breit gemacht, der aus guten Gründen kritisiert wird. Der einzige Grund, dem Linkgeiz eine gewisse Berechtigung zuzusprechen, liegt in der Einschränkung, die man dem “Nein!” bei der Frage, ob ausgehende Links dem Suchmaschinenranking schaden, hinzufügen muss.

Google rankt nicht nur die Seiten, Google registriert auch “schwarze Schafe”, also Webseiten, die mit illegalen Maßnahmen ihr Ranking steigern – in der Regel sind dies Spam-Netzwerke. Und diese “schwarzen Schafe” werden von Google natürlich abgestraft. Verlinkt man nun ständig auf irgendwelche Spam-Seiten, ordnet Google die eigene Webseite diesen Spam-Netzen zu und wertet die eigene Webseite ebenfalls ab.

Da es jedoch keinen Grund gibt, warum man ausgerechnet auf Spam-Netzwerke ständig verlinken sollte, kann diese Einschränkung in der Praxis ignoriert werden. Mit Links auf normalen, seriösen Seiten ist man immer auf der sicheren Seite, man “stärkt” zwar die empfangende Seite, verliert aber selbst nicht beim Suchmaschinenranking.

 

Diesen und weitere Blog-Artikel zu Public Relations (PR), Content, Marketing, Digitalisierung und Kommunikation gibt es im Görs Communications Blog auf https://www.goers-communications.de/pr-werbung-beratung/blog

Webperlen: Abmahnung wegen Nutzerkommentaren, falsche Twitter-Follower und Facebook hat plötzlich 26 Millionen aktive Nutzer aus Deutschland

Heute in der Webschau von Görs Communications:

  • Blogbetreiber wird wegen Nutzerkommentaren abgemahnt
  • Falsche Twitter Follower: Die Preise explodieren
  • Facebook ändert Zählung aktiver Nutzer massiv und katapultiert Deutschland auf 26 Millionen aktive Nutzer
  • Suchmaschinenverteilung im Juni 2013
  • Das neue Schreiben
  • BildPlus: Wer soll das bezahlen?
  • Angriff auf Amazon: Google will eBooks verleihen
  • Riesige Android-Sicherheitslücke betrifft 99% aller Devices
  • Ladezeit optimieren mit Google Analytics und Page Speed

Abmahnungen und kein Ende (via): Weil der bloggende Rechtsanwalt Thomas Stadler über Abmahnungen berichtet hat, wird ihm jetzt selbst mit einer Abmahnung gedroht. Und zwar nicht wegen dem, was er geschrieben hat, sondern wegen den Nutzerkommentaren unter eben jenen Blogpost. Aber offensichtlich ist die abmahnende Kanzlei an den Falschen geraten, der Blogger gibt nicht klein bei und schreibt unter “Kanzlei mahnt mich als Blogbetreiber wegen Nutzerkommentaren ab“:

Darüber hinaus wurden in den Kommentaren eine Vielzahl von Wertungen vorgenommen, die von der Meinungsfreiheit gedeckt sind. Mit dem durchsichtigen Versuch, kritische Meinungsäußerungen mittels Androhung gerichtlicher Schritte aus dem Netz zu bekommen, sind die Kollegen von KSP bei mir jedenfalls an der falschen Adresse.

Meist reicht auf  Twitter schon ein einziger Blick, um zu merken, dass die Follower nur angelegt wurden, um die eigene Followerzahl in die Höhe zu treiben, da man sich dadurch wichtiger macht, als man ist:

Fake-Follower-Twitter

Aber offensichtlich werden die “Faker” nicht nur teuerer, sondern legen auch immer mehr Wert auf gute Ergebnisse, unter “Falsche Twitter Follower: Die Preise explodieren” berichtet die Chip folgendes:

Wie es hieß, sei es ein wahrer Trend unter diesen halbseidenen Anbietern, echte Profile von wirklichen Personen zu nehmen (Hintergrundfarbe, Bilder, Daten) und abzuwandeln. Mit genügend Schreibvarianten im Namen und in den sonstigen Daten versehen, ließen sich so aus einer Person schnell Tausende herstellen und diese werden dann verkauft.

Apropos künstlich veränderte Zahlen: Facebook ändert jetz die Zählung der aktiven Nutzer massiv und katapultiert sich damit in Deutschland auf 26 Millionen aktive Nutzer:

Die neuen Zahlen lassen uns jetzt rätseln. Entweder waren die alten Zahlen (jahrelang) etwa unrealistisch oder aber die neuen sind es. Eine Anfrage bei Facebook konnte leider nicht abschließend klären, worauf die neuen Schätzungen nun beruhen und wie sich diese von den alten Schätzungen unterscheiden.

Neu Zahlen von der Suchmaschinenverteilung in Deutschland gibt es auch, an der marktbeherrschenden Stellung von Google hat sich auch im letzten Monat nichts geändert, der Suchmaschinenriese hat seinen Marktanteil sogar um 0,4% auf 90,7% ausbauen können, weiß SEO-united.
Im “Journalist” ist ein schöner Text über die Zukunft des Journalismus erschienen, in dem Constantin Seibt, Reporter beim Schweizer Tagesanzeiger, unter der Überschrift “Das neue Schreiben” ein paar sehr kluge Gedanken formuliert:

Die entscheidende Qualität der Ware Zeitung war jahrzehntelang die Nicht-Enttäuschung. Solange man nicht ganz miserable Ware lieferte, blieben die Abonnenten bis zum Tod. Und heute? Journalisten und Verleger haben verlernt, was unser Publikum zur Kaufentscheidung bewegt: Begeisterung. Wagnisse. Brüche. Und das Eingeständnis von Fehlbarkeit.

Apropos Zukunft des Journalismus, die BildPlus ist es wohl nicht. Mein zumindest der Blogger von Zapp, dem Medienmagazin vom NDR:

Die typischen „Bild“-Inhalte eignen sich kaum als Premium-Bezahl-Content. Exklusiv-Infos erschöpfen sich bei „Bild“ meist in wenigen Zeilen, deren Kern dann von anderen Nachrichtenagenturen und anderen Medien weitergetragen wird: Kaum Anreiz für Nutzer, dann für das „Bild“-Original extra ein Abonnent abzuschließen.

Die Zukunft des Buchhandels? Die Gerüchteküche um das Buchangebot von Google brodelt weiter, unter “Angriff auf Amazon: Google will eBooks verleihen – und verbietet Erotik-Büchern die freizügige Vorschau” weiß das BASIC thinking-Blog zu berichten:

Google baut seine eCommerce-Aktivitäten aus und will nun auch in den Markt des eBook-Verleihs einsteigen. Das geht aus aktualisierten Richtlinien für Partner im Google Play-Store hervor. Wann die Funktion zur Verfügung stehen soll und wie der Dienst im Detail aussehen soll, ist derzeit allerdings noch ungewiss.

Wobei Google sich derzeit eher über Sicherheitsprobleme Gedanken machen sollte, eine riesige Android-Sicherheitslücke betrifft 99% aller Devices:

Bluebox Security hat eine verheerende Sicherheitslücke im Android-Betriebssystem aufgedeckt, von der 99 Prozent aller Android-Devices potenziell betroffen sind. Die Problemstelle würde das “unbemerkte” Aushorchen und Manipulieren der Geräte erlauben, das Ausspähen von Passwörtern und das Fernsteuern der Android-Devices als multinationales Botnetz.

Und zum Abschluss der Webschau noch ein Hinweis, der vor allem für Webmaster interessant sein dürfte. Ladezeit optimieren mit Google Analytics und Page Speed:

Google bietet mit dem Tool Page Speed ein sehr gutes Mittel, um die Ladezeit einer Website zu analysieren und optimieren. Dort kann man eine  Url eingeben und bekommt einige Tipps an die Hand, wie man genau diese Seite schneller bekommt.

 

Diesen und weitere Blog-Artikel zu Public Relations (PR), Content, Marketing, Digitalisierung und Kommunikation gibt es im Görs Communications Blog auf https://www.goers-communications.de/pr-werbung-beratung/blog

Impressum und Datenschutzerklärung .