Webmaster-Zentrale Blog
Offizielle Informationen zum Crawling und zur Indexierung von Webseiten und News für Webmaster
Website-Check beim Online Motor Deutschland
Mittwoch, 2. November 2011
Wir, Kaspar und Uli vom Search Quality Team, hatten vor kurzem die Möglichkeit, beim
Online Motor Deutschland
in Berlin eine Reihe von Website-Checks zu veranstalten, und wir hatten viel Spaß dabei!
Online Motor Deutschland ist eine Initiative von Google und zahlreichen Partnern, um kleinen und mittelständischen Unternehmen dabei zu helfen, das Internet erfolgreich für sich zu nutzen. Berlin war vorerst das letzte Event, aber es sind trotzdem noch viele hilfreiche Informationen auf der
Event-Seite
zu finden.
In den Site-Clinics hatten die Besitzer von Webseiten die Möglichkeit, ihre Webseiten einzureichen, und wir haben ihnen dann Tipps gegeben, wie sie die Sichtbarkeit ihrer Seite in den Suchergebnissen bei Google verbessern können. Wir haben über 30 Webseiten analysiert, und insgesamt haben rund 500 Webmaster und Webseitenbesitzer die 7 Workshops besucht, die wir gehalten haben.
Für diejenigen unter euch, die eine neue Webseite aufsetzen wollen oder ihre Webseite suchmaschinenfreundlicher gestalten wollen, sind hier die zehn wichtigsten Tipps, die wir auf der Veranstaltung geteilt haben:
Meldet euch unter
google.com/webmasters/tools/
bei den Google Webmaster-Tools an. Die Google Webmaster-Tools bieten euch kostenlos detaillierte Berichte über die Präsenz eurer Seiten in der Google-Suche. Fügt zunächst eure Webseite hinzu und bestätigt sie dann. Anschließend könnt ihr sofort Informationen abrufen. Andere nützliche Ressourcen für Webmaster findet ihr in der Google Webmaster-Zentrale unter
google.com/webmasters
Versetzt euch in die Lage eines Besuchers eurer Webseite. Achtet darauf, dass eure Seite die Begriffe enthält, nach denen tatsächlich gesucht wird. Die Begriffe sollten in natürlicher Sprache im Text vorkommen und nicht nur in Aufzählungspunkten oder isolierten Keyword-Listen genannt werden.
Verwendet geeignete, für die einzelnen Seiten relevante Titel, da diese in den Suchergebnissen direkt sichtbar sind. Ihre Überschriften (<h1>, <h2> usw.) sollten außerdem aussagekräftig und passend sein.
Erstellt geeignete Beschreibungs-Meta-Tags. Qualitativ hochwertige Beschreibungen können als Snippets, also als Seitenauszüge, in den Google-Suchergebnissen angezeigt werden und so maßgeblich zur Qualität und zum Umfang des Suchvolumens beitragen.
Damit Nutzer besser erkennen können, worum es auf euren Seiten geht, benennt URLs möglichst einfach und nutzerfreundlich: example.com/produkte/widget.html vs. notexample.com/asdasd/rewiruewr?asd=2131209840392.
Besonders wichtige oder aktuelle Seiten sollten von einer anderen Seite eurer Webseite verlinkt sein, die bereits in Google indexiert ist. Fügt zum Beispiel auf der Startseite eurer Webseite einen Link zur Seite "Neue Sonderangebote!" ein.
Erstellt die Hauptnavigation und Kerninhalte eurer Webseite als Text, optional könnt ihr JavaScript und Flash zur Verbesserung einsetzen.
Verwendet ALT-Attribute für Bilder. Da der Googlebot keine Bilder erkennt, ist eure Mithilfe zur korrekten Kategorisierung gefragt. ALT-Attribute sind wie Meta-Tags für Bilder: Sie stellen direkt im Tag zusätzliche Informationen bereit und werden angezeigt, wenn ein Nutzer das Bild nicht sehen kann. Anhand dieser Attribute erkennt der Googlebot auch den Inhalt des Bildes besser.
Um sich zu vergewissern, dass eure Webseite von Crawlern gelesen werden kann, ruft sie mit einem Mobiltelefon auf, oder, sofern ihr technisch sehr versiert seid, mit einem Textbrowser. Alternativ könnt ihr es auch mit dem
Lynx-Webbrowser
versuchen.
Behaltet das wichtigste Ziel im Auge: eine positive Nutzererfahrung. Natürlich ist es wünschenswert, Zugriffe über Google und andere Suchmaschinen zu erhalten, aber unterschätzt die Wirksamkeit von Lesezeichen, Empfehlungen und Weiterleitungen durch die Besucher eurer Webseite nicht. Testet und analysiert Veränderungen des Designs und der Nutzerfreundlichkeit mit Tools wie Google Analytics und dem Google Website-Optimierungstool.
Für weiterführende Informationen möchten wir euch noch unsere
Einführung in die Suchmaschinenoptimierung
und unsere
Hilfe für Webmaster
ans Herz legen. Und falls doch noch Fragen offen bleiben, im
Webmaster-Forum
gibt es viele sachkundige und hilfsbereite Webmaster, die ihr Wissen gerne mit anderen teilen!
Das Online Motor Deutschland Zelt in Berlin von außen...
… und von innen.
Kaspar und Uli analysierten Webseiten von kleinen und mittelständischen Unternehmen.
Geposted von
Uli Lutz
und
Kaspar Szymanski
, Google Search Quality (Veröffentlicht von
Dominik Zins
, Search Quality)
Hilfreiche Tipps von unserer London-Site-Clinic
Dienstag, 10. Mai 2011
Vor kurzem fand unsere zweite Site Clinic statt, dieses Mal bei TechHub in London. Wie schon
letztes Jahr
, möchten wir die besprochenen Themen im Folgenden für euch zusammenfassen.
Mit Hilfe von Meta-Tags kann die Sichtbarkeit von Webseiten in den Suchergebnissen von Google unkompliziert verbessert werden. Viele Webmaster schöpfen dieses Potenzial bisher jedoch nicht voll aus. Wir haben daher ein paar Hilfestellungen zum Schreiben
guter Seitentitel
und
Beschreibungen
zusammengestellt, mit denen ihr in das Thema einsteigen könnt.
Meta-Keywords
könnt ihr übrigens ignorieren, soweit es die Google-Suche betrifft.
Der Kontext des Inhalts einer Seite wird von den Google-Algorithmen unter anderem anhand der
Seitenüberschriften
ermittelt. Die Art und Weise der semantischen Auszeichnung auf einer Website, einschließlich der h1-, h2- und h3-Tags, weist auf die Prioritäten der einzelnen Inhalte einer Website hin. Allerdings muss man sich nicht um jedes einzelne H-Tag Gedanken machen. Der gesunde Menschenverstand ist in diesem Fall der beste Ratgeber.
Genauso wichtig wie eine logische Strukturierung der Seiten ist die Gesamtstruktur eurer Website, insbesondere die sinnvolle Verlinkung mit ähnlichen Dokumenten innerhalb dieser Website. So können sowohl Nutzer als auch Suchmaschinen-Bots euren gesamten Content besser erkunden. Stellt darüber hinaus unbedingt eine regelmäßig aktualisierte
XML-Sitemap
bereit, die bequem
über die robots.txt-Datei eurer Website verlinkt
und so von Google und anderen Suchmaschinen automatisch gefunden werden kann.
Ein weiteres Thema bei der Site Clinic waren Probleme mit
doppelten Inhalten (Duplicate Content)
und dem
Festlegen einer kanonischen Version
. Doppelte Inhalte innerhalb einer Website sind generell kein Problem, erschweren aber Suchmaschinen die korrekte Indexierung der Inhalte und die Bereitstellung der richtigen Version für die Nutzer. Es gibt zwei Möglichkeiten, um auf die bevorzugte Version eurer Inhalte hinzuweisen: durch
301-Weiterleitungen
auf eure bevorzugte Version oder mithilfe des Link-Elements
rel="canonical"
. Wenn ihr nicht sicher seid, ob ihr für eure bevorzugte Domain eine www- oder eine Nicht-www-Adresse festlegen sollt, lest am besten die entsprechende Hilfeseite zum
Festlegen der bevorzugten Domain in den Webmaster-Tools
.
Ein weiteres häufig auftretendes Problem ist, dass viele Websites Fehlerseiten aufweisen, die keinen HTTP-Fehlercode sondern den HTTP-Statuscode 200 zurückgeben. Nur Dokumente, die auch tatsächlich verfügbar sind, sollten den HTTP-Statuscode 200 zurückgeben. Wenn die Seite nicht mehr existiert, sollte sie den Antwortcode 404 (Seite nicht gefunden) zurückgeben. Header-Antworten jeder URL können mithilfe der Funktion "
Abruf wie durch Googlebot
" in den Webmaster-Tools oder mithilfe von Drittanbieter-Tools wie dem
Live HTTP Headers Firefox-Add-on
oder web-sniffer.net geprüft werden.
Die Rangfolge falsch geschriebener Suchanfragen, zum Beispiel falsch eingegebener Namen lokaler Geschäfte, scheint ein weiteres Problem zu sein. In einigen Fällen schlägt die
automatische Rechtschreibkorrektur von Google
sofort die richtige Schreibweise vor. Es ist keine gute Idee, den Inhalt einer Website mit allen möglichen Rechtschreibfehlern zu versehen. Ebenso wenig ratsam ist es, diese oder andere Inhalte mithilfe von JavaScript, CSS oder ähnlichen Techniken auszublenden. Diese Methoden verstoßen gegen die
Richtlinien für Webmaster von Google
und können sich negativ aufs Ranking der Website auswirken. Wenn ihr nicht ganz sicher seid, wie der Googlebot eure Seiten "sieht", zum Beispiel, wenn ihr viel JavaScript verwendet, dann seht euch die Nur-Text-Version der im Cache gespeicherten Kopie in den Ergebnissen der Google Websuche an.
Nutzer lieben schnelle Websites. Aus diesem Grund ist die
Ladegeschwindigkeit von Webseiten
ein wichtiges Kriterium. Wir bieten den Webmastern eine Reihe von Tools und Empfehlungen zur Analyse und Verbesserung der Leistung ihrer Websites. Das beste Tool für Einsteiger ist
Page Speed Online
, die webbasierte Version unserer beliebten
Extension Page Speed
für Chrome. Unsere Seite
Let's make the web faster
enthält eine Reihe hilfreicher Ressourcen von Google und anderen Anbietern zur Verbesserung der Website-Geschwindigkeit. Schaut sie euch unbedingt einmal an.
Unser Dank geht an das Team von
TechHub
, das uns bei der Durchführung der Veranstaltung geholfen hat, sowie an alle Teilnehmer. Wir hoffen, dass die Präsentation sowie die Fragen und Antworten interessant für euch waren. Die Präsentation findet ihr hier:
Meldet euch beim
Google-Webmaster-Hilfeforum
an und diskutiert weitere Fragen, oder schaut regelmäßig in das
Blog der Webmaster-Zentrale
.
Sharing advice from our London site clinic (English version)
Blogpost von Kaspar Szymanski, Pierre Far und Sven Naumann
Google Grants Site Clinic: Content is King
Freitag, 9. April 2010
Die erfolgreichste Maßnahme zur Suchmaschinenoptimierung besteht darin, spannende Artikel, aussagekräftige Bilder oder interessante Grafiken für Nutzer zur Verfügung zu stellen. Um diese Inhalte ins richtige Licht zu rücken, haben wir
im vorherigen Post aus dieser Serie
die technische Struktur für unser Site-Clinic-Projekt
www.kenia-hilfe.com
analysiert und verbessert.
Im heutigen Blogpost untersuchen wir die Darstellung der Inhalte der Website, damit diese von Besuchern und Suchmaschinen besser verstanden werden können.
Wie immer versuchen wir uns bei der Analyse von
www.kenia-hilfe.com
als Beispielseite auf solche Ratschläge zu konzentrieren, die für alle Webmaster und Website-Betreiber nützlich sind.
Bilder und Fotos
Die Bilder und Grafiken auf
www.kenia-hilfe.com
konnten bisher von Suchmaschinen und Nutzern mit Textbrowsern nur schlecht erkannt werden, da die Website keinen Alt-Text verwendet hat. Alt-Attribute sind nicht nur für die Barrierefreiheit der Website von Nutzen, sie unterstützen auch die Crawlbarkeit. Darüber hinaus können durch Bilder mit Alt-Text weitere Besucher über die Google Bilder-Suche gewonnen werden. Ausdrucksstarke Dateinamen der Bilder, also zum Beispiel nicht „bild039.jpg“, sondern „Kindergartengruppe.jpg“ sind ebenfalls hilfreich. Diese Schritte zahlen sich unter Umständen auch für die universelle Suche von Google aus. Hier bettet Google Bilder, Videos, News und andere relevante Inhalte in die Suchergebnisse ein.
Im Falle von
www.kenia-hilfe.com
hat sich der Webmaster dazu entschieden, die meisten Bilder der Website für die Suche zu blockieren, indem er die Anweisung
Disallow: /sites/
in der robots.txt-Datei verwendet. Die meisten Bild-Dateien von
www.kenia-hilfe.com
sind in Unterverzeichnissen von
www.kenia-hilfe.com/sites/
untergebracht und werden folglich in Zukunft nicht gecrawlt werden.
Einige der Bilder werden trotzdem noch in der Bilder-Suche angezeigt, weil sie bereits indexiert waren, bevor die neue robots.txt-Datei erstellt wurde. Ihr könnt die gesamte robots.txt-Datei unter http://www.kenia-hilfe.com/robots.txt einsehen. Wenn ihr
mehr Informationen über robots.txt
haben wollt, werft doch einen Blick in unsere Webmaster-Zentrale!
Nur eine Sprache pro Seite
Die alte Fassung der Website mischte deutschen und englischen Text auf einzelnen Seiten. Das war sowohl für Besucher als auch für den Googlebot verwirrend. Der Webmaster entschied sich, das zu verbessern. Jetzt werden die sprachlich unterschiedlichen Inhalte durch Unterverzeichnisse klar voneinander getrennt. Deutsche Inhalte sollten unter
http://www.kenia-hilfe.com/de
, englischer Content unter
http://www.kenia-hilfe.com/en
erscheinen.
Im Moment ist Content auf
www.kenia-hilfe.com
manchmal noch im Unterverzeichnis der jeweils anderen Sprache aufzufinden. In Zukunft wird die Unterteilung aber hoffentlich in allen Fällen eingehalten. Die Erstellung der Verzeichnisstruktur war ein erster wichtiger Schritt, um die Website in Zukunft weiter zu organisieren. Die Übersetzung aller Inhalte in beide Sprachen ist eine eigene Herausforderung.
Verbesserung der internen Verlinkungen im Menü
Die alte Fassung von
www.kenia-hilfe.com
verwendete ein relativ einfaches HTML-Fold-Out-Menü. Solche Menüs führen meist von der Homepage weg, wenn man ein Element des Fold-Out-Menüs anklickt, und laden eine komplett neue Seite, sobald man Unterpunkte des Navigationsmenüs öffnen möchte.
Das ist weder für Nutzer noch Suchmaschinen optimal, insbesondere weil der Crawler der Homepage und deren interner Verlinkung spezielle Bedeutung zumisst. Das neue „Nested Menu“ (also ein verschachteltes Menü) macht die Untermenüpunkte und ihre Links für den Crawler einsehbar, ohne dass die Homepage verlassen werden muss. Die klarere Struktur vereinfacht Google das Auffinden der Seiten, die indexiert werden sollen.
Die wichtigste Botschaft einer Seite als Überschrift darstellen
Um die Inhalte einer jeden Seite für Nutzer und Suchmaschinen transparenter zu machen, wird das Alleinstellungsmerkmal (auch ”Unique Sellling Point” genannt) durch den "title"-Tag und die Überschriften hervorgehoben. Es ist ratsam, Überschriften durch die Benutzung von
H-Tags
(also <h1>, <h2>, etc.) auch als solche zu markieren.
Nehmt zum Beispiel
http://www.kenia-hilfe.com/de/kinder/lisa
: der Header "Lisa - ein Neugeborenes kommt nach Nice View" fasst den Inhalt in wenigen Worten zusammen und ist so für jeden Leser hilfreich.
Wenn ihr die gegenwärtige Homepage von
www.kenia-hilfe.com
anschaut, werdet ihr allerdings zum Schluss kommen, dass der momentane H1-Header “Startseite” noch aussagekräftiger sein könnte.
Wie immer gibt es noch Platz für weitere Verbesserungen. Die eigene Website im Auge zu behalten und nach Möglichkeiten zu suchen, sie Schritt für Schritt weiter zu verbessern, ist eine Strategie, die auf jeden Fall hilfreich ist.
Falls ihr Vorschläge oder Ideen habt, wie man die Website weiter verbessern könnte, oder Fragen zu eurer eigenen Website stellen wollt, hinterlasst doch einen Kommentar oder schaut im
Webmaster-Forum
vorbei! Die Community dort hilft immer gerne weiter.
Und überseht nicht unseren abschließenden Blogpost zu
www.kenia-hilfe.com
: Webmaster haben häufig mit Problemen zu kämpfen, die auf Grund von Duplicate Content entstehen. Das nächste mal beschäftigen wir uns mit genau diesem Thema.
Post von Michael Schwarz und Jörg Pacher, Search Quality Team
Website Clinic für Webmaster
Montag, 15. März 2010
Mitarbeiter des Search Quality Teams bei Google haben in der Vergangenheit mehrfach an Site Clinic Panels teilgenommen. Wir haben dafür viel Zuspruch erhalten und haben uns überlegt wie wir noch mehr Webmaster erreichen könnten. Wir entschieden uns für eine wie üblich kostenfreie Site Clinic bei Google im Rahmen eines kleinen Pilotprojekts und luden Webmaster aus unserer Nachbarschaft in Dublin ein. Das Interesse an der Veranstaltung war überwältigend und ging bei weitem über unsere Erwartungen hinaus.
Dies waren die Site Clinic Veranstalter:
Anu Ilomäki
, Alfredo Pulvirenti,
Adel Saoud
,
Fili Wiese
,
Kaspar Szymanski
und
Uli Lutz
.
Wir waren begeistert von der positiven Resonanz und möchten gern sowohl die
Präsentation
(Englisch) als auch den einen oder anderen Ratschlag mit euch teilen.
Hier sind einige der Panel-Fragen und unsere Antworten darauf:
Ich führe drei Blogs mit gleichen Inhalten. Ist das aus Google-Sicht problematisch?
Wenn die Inhalte identisch sein sollten, ist nicht auszuschließen, dass nur einer dafür ranken wird. Auch könnte es sein, dass der eingehende PageRank und damit Reputation auf mehrere Quellen verteilt werden, anstatt auf eine fokussiert zu sein. Dadurch könnte es sowohl für User als auch für Suchmaschinen schwierig werden, die ursprüngliche Quelle der Information zu identifizieren. Dem kann allerdings vorgebeugt werden: durch Weiterleitungen oder durch die Verwendung des
Cross Domain Canonical Tags
.
Sollte man SEO Agenturen, die Top Rankings innerhalb eines bestimmten Zeitraums und bei Verwendung einer bestimmten Anzahl von Links versprechen, Glauben schenken?
Nein, niemand ist in der Lage dieses Versprechen zu halten. Bei der Auswahl eines verlässlichen Webseitenoptimierers könnten sich allerdings
Tipps aus unserem Google Help Center
als nützlich erweisen.
Was macht man am Besten mit Keywords die für ein Webseite zwar relevant sind, die man allerdings nicht innerhalb der Inhalte verwenden kann weil sie missverstanden werden könnten oder weil es sich um Schimpf- oder Slangworte handelt? Wie kann man Google die Relevanz für die Webseite vermitteln?
In Abhängigkeit von der Thematik und je nach dem ob die Erwartungshaltung der Zielgruppe das erlaubt, könnte man die Keywords in einer aufklärend, positiven Art und Weise innerhalb der Webseite verwenden, z.B. indem man die Bedeutung erläutert. Gleichzeitig würde man Kompetenz auf dem Gebiet demonstrieren. Wenn es sich aber schlichtweg um Beleidigungen handelt ist es wohl fraglich ob eingehender Traffic der aus diesen Keywords resultiert, überhaupt wünschenswert ist.
Ist es sinnvoll vom URL-Rewrite Gebrauch zu machen?
Es gibt sicherlich User, die lesbare URLs zu schätzen wissen. Das Problem ist, dass die praktische Anwendung von URL-Rewrite zwecks lesbarer URLs viele Tücken hat. Wer es dennoch wagen möchte, sollte sich auf jeden Fall unseren
Post zu dem Thema durchlesen
. Und für alle anderen: Eure
URLs könnten in den Google Suchergebnissen
lesbar erscheinen, ganz unabhängig davon wie exotisch sie in Wirklichkeit aussehen mögen.
Wenn man das Geo-Targeting-Tool von Google verwendet und Irland angibt — ist Nord-Irland mit eingeschlossen?
Nein, das Tool funktioniert länderbasiert. Als Abhilfe kann man eine eigenständige Website oder eine Unterseite für Nord-Irland erstellen und sie mittels des Tools für das Vereinigte Königreich positionieren.
Bevorzugt Google Toplevel Domains wie .com eher als . info?
Nein, unser Fokus liegt auf den Inhalten.
Ich habe eine SO (.so) Domain mit Inhalten speziell für Besucher aus Irland. Ist die Domain ein Problem für mein Ranking in irischen Ergebnissen?
.so ist die Toplevel Domain für Somalia. Zwar ist das ein Faktor der eine Rolle spielt und der uns keinen Hinweis auf Irland gibt, allerdings nur einer von vielen die wir miteinbeziehen bei der Analyse einer Webseite. Die Webseite kann dennoch durch ihre Inhalte in den irischen Suchergebnissen sichtbar sein. Es kann aber durchaus sein dass es etwas länger als üblich dauert bis unsere Algorithmen die Inhalte der Seite richtig analysiert und bewertet haben.
Ich würde mich gern im Namen meiner Kollegen bei allen unseren Besuchern für Ihre Zeit und ihre Teilnahme bedanken. Die Site Clinic hat uns Spaß gemacht und wir hoffen, dass Ihr sie aufschlussreich fandet. Wie üblich möchten wir die Gelegenheit nutzen und alle, die weitere Fragen oder Anregungen haben, herzlich dazu einladen, an den Diskussionen auf dem
deutschen Webmaster Forum
teilzunehmen.
Post von
Kaspar Szymanski
, Search Quality Strategist, Dublin
Google Grants Site Clinic: Überarbeitung der Website-Struktur
Freitag, 29. Januar 2010
Wie in unserem
Einleitungsblogpost
angekündigt, analysieren wir im Rahmen der Google Grants Site Clinic die Website
www.kenia-hilfe.com
und machen einige Vorschläge, wie man auf Basis unserer Dokuments “
Einführung in Suchmaschinenoptimierung
" die Website verbessern könnte.
Dieser Blogpost geht auf die URL-Struktur, Titel- und Description-Meta-Tags, auf die XML-Sitemap sowie auf Weiterleitungen und 404-Seiten ein.
Die URL-Struktur verbessern
Wir empfehlen, für den Inhalt sprechende URL-Namen zu vergeben. In Suchmaschinen werden URLs oft in voller Länge aufgelistet. Wenn eure URLs aussagekräftige Namen haben, können User, die die URL in den Ergebnisseiten von Suchmaschinen oder sogar in einer Email sehen, verstehen wovon die Seite handelt, bevor sie auf den Link klicken.
Versucht die Suche [
site:kenia-hilfe.com
] und werft einen Blick auf die Resultate. Habt ihr den Eindruck, dass die URLs aussagekräftig sind? Helfen sie euch dabei zu verstehen, was ihr auf der ensprechenden Seite finden könnt und euch zu entscheiden, welchem Link ihr folgen wollt? Schaut euch hier den Unterschied an:
Eine URL wie etwa
http://www.kenia-hilfe.com/de/wie-kann-ich-helfen
enthält Informationen über den Content. Dagegen bietet die URL
http://www.kenia-hilfe.com/node/431
keinen Hinweis, was sich dahinter verbirgt.
Ihr werdet noch einige Überbleibsel mit der Struktur des vorhin erwähnten
http://www.kenia-hilfe.com/en/node/431
auf
www.kenia-hilfe.com
finden, wenn ihr [
site:kenia-hilfe.com
] durchsucht, aber die meisten URLs haben jetzt aussagekräftige Namen.
Titel- und Meta-Tags
Der "title"-Tag wird in den Suchergebnissen dargestellt und vermittelt somit dem User einen ersten Einblick in die Seite. Der Meta-Description-Tag wird häufig von Google als alternative Kurzbeschreibung (Snippet) in den Suchergebnissen angezeigt. Wir empfehlen die Erstellung von individuellen und seitenspezifischen "title"- und Meta-Description-Tags.
Die Website
www.kenia-hilfe.com
folgte diesen Ratschlägen. Wenn ihr [
site:kenia-hilfe.com
] überprüft, könnt ihr an Hand von Titel und Snippet einen guten Eindruck davon gewinnen, wovon die einzelnen Seiten der Website handeln. Im folgenden Screenshot seht ihr den verwendeten "title"-Tag in der jeweils ersten Zeile jedes Suchergebnisses und den Description-Meta-Tag direkt darunter.
Sitemap
Eine
XML-Sitemap
erleichtert Google das Auffinden aller Seiten, deren Indexierung ihr euch wünscht. Ihr könnt dabei den
Open Source Google Sitemap Generator
zur Erstellung verwenden. Ihr habt auch die Möglichkeit, mittels der Webmaster-Tools eine Sitemap an Google zu senden. Eine weitere Option zur automatischen Erstellung einer Sitemap ist es, ein entsprechendes Modul für das CMS (Content Management System) eurer Website zu nutzen.
www.kenia-hilfe.com
hat genau darauf zurückgegriffen. Mehr Informationen zu
XML-Sitemaps
findet ihr in unserer Hilfe für Webmaster.
301-Weiterleitungen und 404-Seiten
Mit dem Relaunch der Website wurde auch die URL-Struktur verändert um, wie oben beschrieben, aussagekräftige URLs einzuführen. Um tote Links zu vermeiden, erstellte der Webmaster 301-Weiterleitungen (dauerhafte Weiterleitungen). Sie leiten Besucher und Suchmaschinen automatisch zu neuen Seiten oder auch Websites weiter. Mehr zu
301-Weiterleitungen
könnt ihr in unseren Hilfeseiten nachlesen.
Es wurde auch noch ein weiteres Feature eingeführt: Falls dennoch auf eine nicht existierende URL verwiesen werden sollte, wird eine
individuelle 404-Seite
generiert. Um Besuchern und Suchmaschinen unter die Arme zu greifen, wird nicht nur eine schnöde Fehlerseite angezeigt, sondern die angegebene URL in ihre Einzelteile zerlegt und damit die interne Suche "gefüttert". Wird beispielsweise die URL
http://www.kenia-hilfe.com/de/michelle
eingegeben, sucht die interne Suche nach [Michelle] und zeigt passende Ergebnisse von der Website an. Zusätzlich könnt ihr mit der
Funktion "Abruf wie beim Googlebot" unter Labs in den Webmaster-Tools
abfragen, ob fehlende Seiten tatsächlich das Senden eines
404-Status-Codes
auslösen.
Wir hoffen, dass diese Beispiele von
www.kenia-hilfe.com
hilfreich waren.
Im nächsten Teil der Serie beschäftigen wir uns mit der Darstellung der Inhalte von
www.kenia-hilfe.com
. Wie kann der Content "von der besten Seite" präsentiert werden? Ihr werdet in den nächsten Wochen hier im Google Webmaster-Zentrale-Blog mehr davon hören. Wenn ihr in der Zwischenzeit Fragen zu eurer eigenen Website habt, werft doch einen Blick ins
Webmaster-Forum
! Die Community dort hilft gerne weiter.
Post von Michael Schwarz and Jörg Pacher, Search Quality Team
Labels
#NoHacked
2
2017
1
Accessibility
13
AJAX
1
AMP
7
Android
2
api
1
App-Indexierung
3
Best Practices
99
Bildersuche
2
captcha
1
Chrome
4
Code
12
Crawling
1
Crawling und Indexierung
126
Diskussionsforum
15
Duplicate Content
17
Dynamic Rendering
1
Einsteiger
8
Event
1
events
1
Feedback
1
Geo-Targeting
11
Google Analytics
6
Google Dance
1
Google News
1
Google Places
4
Google-Assistant
1
Google-Suche
59
Google+
9
Hacking
16
Hangouts
1
https
3
JavaScript
3
Kanonische URL
1
Kommentare
1
Konferenz
19
Lighthouse
3
Links
18
Malware
17
Mobile
38
Mobile-first indexing
1
Nachrichten-Center
16
Optimisation
3
PageSpeed Insights
2
Penalties
1
Performance
3
Ranking
1
reCaptcha v3
1
Rendering
2
Rich Snippets
18
Richtlinien für Webmaster
36
robots.txt
7
Safe Browsing
5
Search Console
19
Search Results
1
Security
4
Seitenzugriff
1
SEO
4
Sicherheit
38
Site Clinic
5
Sitemaps
30
Spam Report
9
SSL
1
Structured Data
8
Tools und Gadgets
17
Verschlüsselung
1
Video
132
Webmaster blog
1
Webmaster Community
1
Webmaster-Academy
1
Webmaster-Tools
154
webspam
3
Archiv
2020
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
2019
Dez.
Nov.
Okt.
Sept.
Juni
Mai
Feb.
Jan.
2018
Dez.
Nov.
Okt.
Sept.
Juli
Juni
Mai
Apr.
Feb.
Jan.
2017
Dez.
Nov.
Juni
Apr.
März
Jan.
2016
Nov.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Jan.
2015
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Mai
Apr.
März
Feb.
Jan.
2014
Nov.
Okt.
Sept.
Aug.
Juni
Mai
Apr.
März
Feb.
Jan.
2013
Dez.
Nov.
Okt.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2012
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2011
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2010
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2009
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2008
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feb.
Jan.
2007
Dez.
Nov.
Okt.
Sept.
Aug.
Juli
Juni
Mai
Apr.
März
Feed
Forum für Webmaster
Webmaster-Sprechstunden
Webmaster-Tools-Hilfe
Developers-Site für Webmaster