Warum braucht es SEO für die Überarbeitung einer bestehenden Website? Weil ohne SEO die Gefahr droht, dass eine Website nach dem Relaunch aus den sichtbaren Suchergebnissen verschwindet. Und wenn der SEO-Traffic erst einmal ausbleibt, dann sinken die generierten Conversions und die Leads.
10 entscheidende Faktoren für einen erfolgreichen SEO Website Relaunch
1. URL Design: sprechende URLs mit Keywords
Häufig geht die Erneuerung einer Website mit einem Wechsel der URL-Struktur einher. Sei es, weil ein neues CMS zum Einsatz kommt, oder bei eCommerce Websites, weil eine neue Shop-Lösung verwendet wird.
Bei der Definition der neuen URL-Strukturen gilt es, die Hierarchie einer Website sinnvoll abzubilden und dabei die passenden Keywords zu verwenden.
Tipp: Wer sich bereits beim Erstellen der URL-Struktur überlegt, welche Daten künftig in Google Analytics oder einem anderen Webanalyse-Tool ausgewertet werden sollen und diese Aspekte in die URL-Struktur einfliessen lässt, erspart sich eine Menge Ärger und Aufwand.
2. Keyword-Analyse: auf welche Keywords soll gesetzt werden?
Ein Relaunch eignet sich hervorragend, um die bisherigen Keywords kritisch zu hinterfragen. Mit welchen Keywords rankt die aktuelle Website? Wie viele Top10 Platzierungen gibt es? Und wie sieht es mit der Konkurrenz aus? Aus der Keyword-Analyse können die Keywords abgeleitet werden, die für die neue Website relevant sind.
Tipp: Die Ergebnisse der Keyword-Analyse bilden die Grundlage für das URL-Design, die Meta Tags, die interne Verlinkung sowie die HTML-Struktur.
3. 301 Redirects: Weiterleitung der bestehenden URLs auf die neuen URLs
Änderungen an der URL-Struktur sind eine grosse Chance und höchste SEO Gefahr zugleich bei einem Relaunch. Denn eine Änderung bedeutet, dass die bestehenden, indexierten URLs nicht mehr gültig sind und beim Aufruf ein 404 Fehler ausgelöst wird.
Um 404 Fehler zu vermeiden, ist es nötig, alle URLs – oder bei sehr grossen Websites zumindest jene URLs, die in der Vergangenheit am meisten Traffic generierten – per 301 Weiterleitung auf die neuen URLs umzuleiten.
Tipp: Erstellen Sie nach dem Relaunch in Ihren Webanalyse-Tool (z.B. Google Analytics) einen 404 Report, um 404 Fehler aufzuzeichnen und um allenfalls weitere 301 Redirects zu erstellen.
4. Interne Verlinkung: SEO Power weitergeben
Bekanntlich sind interne Links wichtig für die Suchmaschinenoptimierung, da sie den Suchmaschinen den Weg in die Tiefe einer Website aufzeigen. Des Weiteren vererben interne Links SEO Power. Es liegt auf der Hand, dass der Startseite dabei eine zentrale Stellung zukommt. Die SEO-Kraft der Startseite sollte gezielt auf wichtige Inhalte weitergegeben werden. Viel hilft viel, stimmt in diesem Zusammenhang nicht.
Tipp: Breadcrumbs sind ein wichtiger Bestandteil einer erfolgreichen internen Verlinkung. Footerlinks haben weniger Power als Verlinkungen aus der Navigation oder von den Fliesstexten auf der Website.
5. Meta Tags: gelungene Anzeigentexte für mehr Traffic
Die Meta Tags definieren über den Title Tag und den Description Tag die Anzeigentexte in den Suchresultaten. Die Herausforderung beim Erstellen von Meta Tags liegt darin, dass nur eine beschränkte Anzahl Zeichen zur Verfügung steht, relevante Keywords enthalten sein sollten und der Text die Leser dazu animieren soll, auf die Anzeige zu klicken und damit zum Website-Besucher zu werden.
Tipp: Eine gute Möglichkeit zur Erstellung von überzeugenden Meta Tags ist die Verwendung der 4U Formel. Wie das geht, erfahren Sie hier: https://www.websennsation.ch/blog/4u-formel-fuer-perfekte-meta-tags-seo-tipp-1/
6. HTML Struktur: sinnvolle Gliederung von Inhalten
Gut lesbare Texte im Web sind strukturiert und verfügen über einen Titel und mehrere Zwischentitel. Diese Gliederung sollte sich auch in der HTML-Struktur wiederspiegeln. Dabei darf es nur einen einzigen h1 geben, ungefähr zwei bis vier h2 und mehrere h3. Das geht so weiter bis h6. Bei der angegebenen Anzahl handelt es sich um Richtwerte, weil nicht zuletzt die Länge eines Textes über die sinnvolle Anzahl Zwischentitel entscheidet.
Tipp: Wichtig ist, dass nur ein h1 pro Seite zum Einsatz kommt. Ein Blick in den Quellcode gibt Aufschluss über die verwendete HTML-Struktur. Die Verwendung von Keywords in diesen Titeln zeigt den Suchmaschinen, dass diese Keywords relevant sind.
7. Canonical Tags: was bringt rel=”canonical”?
Gerade in Online Shops passiert es häufig, dass Inhalte doppelt vorkommen. Gründe für diese doppelten Inhalte können beispielsweise die Option zur Produktsortierung oder die Paginierung sein. Aber auch auf Blogs entstehen durch die Kategorienseiten meist doppelte Inhalte. Canonical Tags werden aber auch nötig, wenn die mobile Website über eine andere URL verfügt als die Desktop-Version, aber auf beiden Geräten dieselben Inhalte präsentiert werden.
Die Canonical Tags im Quellcode helfen den Suchmaschinen diese doppelten Inhalte einzuordnen und zeigen an, welche URL in den Index der Suchmaschinen aufgenommen werden soll. Damit kann verhindert werden, dass es aufgrund von Duplicate Content zu einer möglichen Abstrafung seitens der Suchmaschinen kommt. Dazu wird die bevorzugte, originale URL mit dem Linkelement rel=”canonical” ausgezeichnet.
Tipp: Jede URL, die indexiert werden soll, sollte über einen selbstreferenzierenden Canonical Tag verfügen. Der Canonical Tag darf keine Parameter enthalten.
8. hreflang Auszeichnung: für mehrsprachige und internationale Websites
Wer eine mehrsprachige Website oder eine Website in einer Sprache, die in verschiedenen Ländern angezeigt werden soll (z.B. DACH-Region) betreibt, muss sich mit dem Thema hreflang auseinandersetzen. Der hreflang hilft den Suchmaschinen dabei, die geographische Ausrichtung einer Website zu verstehen und die zur Region passende Sprachversion auszuliefern.
Tipp: Wenn Sie auf die neue Domain-Endung .swiss setzen, ist der richtige Einsatz des hreflang für Ihren SEO-Erfolg ein wichtiges Thema.
9. Sitemap Erstellung: für eine bessere und schnellere Indexierung
Eine xml-Sitemap ist eine Liste, die alle URLs einer Website enthält, die von Google indexiert werden sollen. Das wichtigste Attribut der XML Sitemap ist . Die beiden Attribute und haben nicht mehr die Bedeutung der Vergangenheit und können weggelassen werden.
Tipp: Eine XML-Sitemap darf höchstens 50’000 URLs enthalten und darf nicht grösser als 10MB sein. Bei Überschreitung dieser Grenzwerte muss die Sitemap aufgeteilt werden. Weitere Infos zu den Anforderungen an eine Sitemap finden Sie hier: https://support.google.com/webmasters/answer/183668?hl=de&ref_topic=4581190
10. Robots.txt: Verzeichnisse von der Indexierung ausschliessen
Über die robots.txt können jene Verzeichnisse von den Robots ausgeschlossen werden, die nicht indexiert werden sollen. Dabei gilt es zu beachten, dass Robots (auch Bots, Crawler oder Spider genannt) die Anweisungen nicht zwingend berücksichtigen müssen. Während sich Robots der bekannten Suchmaschinen an die Anweisungen halten, ist dies bei “bösen”, bzw. den unerwünschten Robots nicht immer der Fall.
Tipp: Es empfiehlt sich auf der robots.txt einen Verweis auf die XML-Sitemap zu erstellen.
Zusammenfassung
Wer beim nächsten Website Relaunch die oben genannten Faktoren beachtet und umsetzt, verhindert den SEO Supergau. Allerdings hat jede Website ihre eigenen Herausforderungen. WebSENNsation verfügt über einen grossen Erfahrungsschatz von Website Relaunches – auch von grossen, mehrsprachigen eCommerce Websites. Eine Regel gilt für alle Projekte: Je früher SEO im Relaunch-Prozess angedacht wird, umso erfolgreicher wird die Umsetzung.