2649

Google als Content-Anbieter und Strafen gegen Websites

12.12.2010 | 07:09 Uhr | Hans-Christian Dirscherl

PC-WELT: Google wird selbst ja immer mehr zum Content-Anbieter, siehe Google News. Wie viele Inhalte wollen sie auf ihre eigene Seite ziehen? Haben Sie dann überhaupt noch ein Interesse daran weiter zu anderen Seiten zu vermitteln? Sind Sie bei Tests noch daran interessiert Testergebnisse anderer Websites anzuzeigen, wenn Sie selbst schon einen Preisvergleich (wie beispielsweise Ihren englischsprachigen Preisvergleich für den US-Markt) haben?

Kaspar Szymanski: Google News ist aus unserer Sicht kein Content-Anbieter, da immer nur ein wenig mehr als die Schlagzeile angeboten wird. Wenn Internetnutzer an den Inhalten, die dahinter stecken, interessiert sind, müssen sie auf den Link klicken und gelangen somit auf die Website des eigentlichen Anbieters.

Es trifft zwar zu, dass wir Internetnutzern mit Plattformen wie Blogger oder Google Sites den Einstieg als Webmaster erleichtern. Die Inhalte müssen sie allerdings selbst produzieren. Insofern ist unsere Strategie unverändert. Die Suche ist nach wie vor unsere Kernaufgabe. Und unsere Nutzer schätzen die Vielfalt in unseren Suchergebnissen. Daher haben wir weiterhin ein Interesse daran, vielfältige Suchresultate mit zahlreichen Alternativen anzubieten.

PC-WELT: Wann beschließt Google Penalities gegen Websites? Was kann man tun, um die Strafe wieder loszuwerden?

Kaspar Szymanski: Wir haben diese und andere Fragen oft gestellt bekommen, weshalb wir vor einigen Jahren unsere Richtlinien für Webmaster publik gemacht haben. Darin teilen wir beispielsweise mit, dass wir Inhalte, die ausschließlich für Suchmaschinen, jedoch nicht für Webseitenbesucher gedacht sind, nicht für relevant erachten. Versteckt ein Webmaster dennoch beispielsweise Keywords auf seiner Seite, in dem Irrglauben eine höhere Keyworddichte würde zu dauerhaft besseren Platzierungen in unseren Suchergebnissen führen, ist das ein Verstoß gegen diese Richtlinien. Das kann zur Abstrafung oder gar dem Ausschluss aus dem Google-Index führen.

Wer auf gute Sichtbarkeit seiner Webseite in den Google Suchergebnissen Wert legt, sollte sich unbedingt mit diesen Richtlinien vertraut machen. Wir gehen gegen Webspam sowohl algorithmisch als auch manuell vor. Google bekommt dabei große Unterstützung von den Nutzern selbst, die uns mithilfe des Spamreports auf potenziellen Spam in den Suchmaschinenergebnissen aufmerksam machen.

In einigen Fällen, zum Beispiel wenn es sich um eine Website mit sehr hochwertigen Inhalten handelt, unternehmen wir den Versuch, den Seitenbetreiber auf das Problem aufmerksam zu machen und zwar mithilfe der Google Webmaster-Tools. Wir beschreiben das Problem, beispielsweise dass es auf der Website versteckten Text gibt. Als Webmaster sollte man in so einem Fall sicherstellen, dass die Website völlig unseren Richtlinien für Webmaster entspricht, bevor man dann einen Antrag auf erneute Überprüfung stellt. Es kommt vor, dass Webmaster nur einen Teil des Problems beheben und dann auf ihr Glück hoffen. Das ist natürlich nicht sinnvoll, weder für die Seitenbetreiber noch für Google. Wir benachrichtigen den Webmaster übrigens auch, sobald sein Antrag von uns bearbeitet wurde.

PC-WELT: Was sind die fünf wirklich effektiven Tipps für Website-Besitzer, um die Seite bei Google ganz nach vorne zu bringen?

Kaspar Szymanski: Inhalte, Inhalte, Inhalte, Inhalte und noch mal qualitativ hochwertige Inhalte. Seiten, die von Nutzern wegen ihrer Inhalte und/oder der angebotenen Dienstleistungen gern benutzt werden, gewinnen mit der Zeit an Sichtbarkeit in unserem Index. Auch wenn man als Webmaster nicht viel Zeit hat, sollte man sicherstellen, dass die Inhalte für die entsprechende Zielgruppe interessant sind.

Was danach kommt ist on-site Optimierung. Bei Site-Clinics stelle ich häufig fest, dass selbst einfache Schritte wie das Erstellen von aussagekräftigen Titeln und Meta-Beschreibungen selten beachtet werden. Selbst große Websites vernachlässigen oft das Verlinken zwischen einzelnen Dokumenten, was die Navigation sowohl für den Googlebot als auch für Seitenbesucher erschwert.

Das gleiche gilt für das Bereitstellen einer Sitemap-Datei. Es ist ein einfacher Schritt, der jedoch sehr hilfreich für uns sein kann, wenn wir versuchen, die Website zu crawlen.

Und nicht zuletzt würde ich jedem Webmaster nahelegen, von den kostenfreien Google Webmaster-Tools Gebrauch zu machen. Mit deren Hilfe lässt sich feststellen, für welche Begriffe eine Website in den Suchergebnissen auftaucht, ob möglichrweise Fehler vorhanden sind oder ob die Seite etwa gehackt worden ist. Das sind aber nur einige Maßnahmen, die Webmaster ergreifen können. Es gibt noch viel mehr, das man über die eigene Website herausfinden kann.

PC-WELT Marktplatz

2649