SEO & SEA

Fundament für Erfolg: wie technisches SEO gelingt

Date
19/05/2023

Technisches SEO ist das Grundgerüst einer Website, damit Content von Suchmaschinen gefunden und indexiert wird. Von der Steuerung der Indexierung über eine Verbesserung der Nutzererfahrung bis hin zum Feintuning: Mit dem richtigen technischen SEO wird das Fundament gelegt, auf dem weitere Maßnahmen fußen. Je mehr man sich um die Grundlagen kümmert, desto besser wird am Ende das Ranking-Ergebnis. Dabei erfordert auch das technische SEO langfristige Aufmerksamkeit und den Fokus auf Trends wie Mobile First und Ladegeschwindigkeiten.

Abgesehen von den richtigen Rahmenbedingungen für eine performante Website geht es beim technischen SEO auch um eine grundsätzliche Struktur der Inhalte. Denn: Google liebt strukturierte Daten. Damit Suchroboter optimal Websites durchsuchen und indexieren können, ist eine einheitliche Struktur hilfreich. Aber auch der Aspekt der User Experience steht mittlerweile immer mehr im Mittelpunkt bei den Rankingfaktoren. Schnelle Ladezeiten und eine klar geordnete Seite sind daher wichtige Kriterien.

 

Welchen Mehrwert technisches SEO für
Nutzerinnen und Nutzer sowie das Ranking hat

Oftmals finden sich grundsätzliche Fehler auf einer Website in den Strukturen. Das können zum Beispiel nicht sinnvoll verwendete Überschriften-Tags sein. Eine H1-Überschrift definiert den folgenden Content und sollte daher nur ein einziges Mal vergeben werden. Suchmaschinen orientieren sich besonders an dieser Überschrift. Weitere nachfolgende Unterschriften – also zum Beispiel eine H2, H3, H4 und so weiter – dürfen mehrmals vergeben werden, sollten aber ihrer inhärenten Syntax folgen. Keine sollte übersprungen werden und gleichberechtigte Inhalte eine Überschrift des gleichen Rangs bekommen. Das hilft nicht nur Suchrobotern, sondern auch Nutzerinnen und Nutzer verbleiben länger auf einer Seite, wenn die Inhalte klar strukturiert und einfach zu erfassen sind.

 

Neben inhaltlichen On-Page-Maßnahmen gibt es aber auch tiefergehende Optimierungsmöglichkeiten. Über HTTP-Codes können Fehler und Probleme identifiziert werden – von nicht mehr funktionierenden Links über Server-Auslastungen bis hin zu fehlenden Weiterleitungen. Diese sollten behoben werden, auch wenn es sich zum Beispiel um eine Verlinkung einer externen Webseite handelt, die nicht mehr funktioniert. Denn sowohl für Nutzerinnen und Nutzer als auch die Google-Algorithmen ist es unschön, beim Besuch einer Website auf Fehler zu stoßen.

Wie Webseiten richtig in den Suchergebnissen erscheinen

Ein weiterer häufiger Fehler sind vergessene oder suboptimale Title-Tags und Meta-Beschreibungen. Diese sind aber wichtige Rankingfaktoren und tauchen sogar direkt auf der Suchergebnisseite auf. Wenn kein Title-Tag gesetzt ist, der den Seitentitel zum Anzeigen bei Suchmaschinen definiert, wird er automatisch generiert. Dabei kann es zu Problemen kommen, wenn beispielsweise der Titel zu lang ist. Dann werden eventuell wichtige Informationen abgeschnitten.

 

Ähnlich verhält es sich mit der Meta-Description. Wenn diese Zusammenfassung nicht festgelegt ist, dann wird sie von Suchmaschinen selbst erzeugt. Das können dann unter Umständen die ersten Sätze eines Texts sein, die vielleicht nicht die gewünschte Aufmerksamkeit auf sich ziehen.

 

Daher ist es ratsam, eine Website selbst darauf zu prüfen, ob überall die richtigen Informationen angegeben sind und diese auch bei Google und Co. richtig angezeigt werden. Dabei hilft die Google Search Console, mit der Fehler auf den gecrawlten Seiten gefunden werden können. Zudem gibt es zahlreiche Browser-Plug-ins für beispielsweise Google Chrome, mit denen Sites auf mögliche Schwachstellen überprüft werden können.

 

Technisches SEO hilft auch dabei, wenn es um größere Umstrukturierungen einer Website geht. Wenn sich einzelne Seiten verschieben oder die Inhalte doppelt erscheinen müssen, hilft es, den originalen Inhalt mit einem Canonical-Tag zu kennzeichnen. Schließlich sollte jede URL über einen eigenen, einzigartigen Inhalt verfügen. Das ist für Webshops und internationale Unternehmen jedoch manchmal schwierig umzusetzen, denn ähnliche Artikel oder länderspezifische Seiten mit gleichen Inhalten können hier das Ranking beeinträchtigen.

User Experience in den Mittelpunkt rücken: Page Speed als Rankingfaktor

Seitdem sich der Mobile-First-Ansatz durchgesetzt hat, sind Ladezeiten von Websites ein unerlässlicher Faktor. Je länger eine Seite lädt, desto höher ist die Wahrscheinlichkeit, dass Nutzende nicht warten und zu einer anderen Website wechseln.

 

Dabei spielen gerade Bilder eine wichtige Rolle. Große, hochauflösende Header sind attraktiv. Aber wenn jedes verwendete grafische Element mehrere Megabyte groß ist, kann die Ladezeit schnell unerträglich lang werden. Gerade bei Nutzerinnen und Nutzern, die mit einem Mobilgerät surfen, ist das ein wichtiger Faktor.

 

Umgehen kann man das Problem, indem Bilder zum Beispiel durch das Verkleinern auf die tatsächlich benötigten Maße auf eine nutzbare Größe gebracht werden. Hier sollte man Responsive Designs im Hinterkopf behalten: Nicht alles, was auf einem Smartphone gut aussieht, wirkt auch auf einem Desktop-Monitor überzeugend. Abseits von den reinen Pixeln helfen auch verschiedene Dateiformate dabei, Bilder zu komprimieren. JPG und PNG sind besser als unkomprimierte Formate wie beispielsweise Bitmaps (BMP).

 

Ladezeiten gehören zu den Core Web Vitals bei Google. Sie beeinflussen daher direkt das Ranking einer Seite. Abgesehen von Bildern können auch zu viele Skripte und dynamische Elemente die Ladedauer einer Website negativ beeinflussen. Hier hilft es, sich die Site genau anzuschauen, um Verbesserungspotenzial aufzuspüren. Je weniger geladen werden muss, desto kürzer sind auch die Ladezeiten.

Suchroboter lenken mit der robots.txt

Wenn eine Website nicht richtig nach ihren Inhalten durchsucht werden kann, liegt das meist an fundamentalen Problemen. Unter anderem kann es sein, dass in der robots.txt, die Einstellungen an Suchroboter weitergibt, falsche Anweisungen stehen. Mit der Textdatei können einzelne Seiten oder ganze Pfade vom Crawling ausgeschlossen werden. Das ist hilfreich für nichtöffentliche Bereiche oder Teile von Websites, die im Auf- oder Umbau sind. Wird aber vergessen, diese Ausnahmen wieder zu revidieren, können die Seiten nie im Ranking auftauchen.

 

Ebenso können einzelne Seiten mit Attributen wie noindex oder nofollow direkt vom Indexieren ausgeschlossen werden. Der Unterschied ist jedoch, dass das Crawling weiterhin stattfindet. Für eine bessere Serverbelastung ist es also ratsam, Seiten und Pfade komplett vom Crawling auszuschließen, sofern sie niemals in den Suchergebnissen auftauchen sollen.

 

Auch eine gepflegte Sitemap kann helfen, das Crawling effizienter zu machen. In der Sitemap sind Informationen zu Seiten, Videos und anderen Dateien sowie ihren Verlinkungen angegeben. Suchmaschinen lesen diese Datei aus, um das Durchsuchen zu verbessern. Eine gute Sitemap muss dafür aber aktuell sein und die Struktur korrekt abbilden.

Noch Fragen?

Marc Lambauer Director Marketing & Sales

 

Email

Verwandte Blogs

SEO & SEA

Interne SEO-Verlinkung:
Wissen & Tipps

 

 

Im Bereich Search Engine Optimization (SEO) gibt es viele Hebel, die den Erfolg einer Website beeinflussen können. Ein Faktor, der häufig übersehen wird, aber eine entscheidende Rolle spielt, ist die interne Verlinkung. In diesem Artikel beleuchten wir das Thema ausführlich und zeigen Ihnen, wie Sie Ihr Ranking und die User Experience auf Ihrer Website durch eine gezielte interne Verlinkung verbessern können.

 

 

weiterlesen
SEO & SEA

SEO Glossar

 

 

Guter Content will gefunden werden. Dafür gibt es Suchmaschinenoptimierung. Doch was verbirgt sich hinter Fachbegriffen wie „Crawling“, „Y-M-Y-L“ oder „Offpage-SEO“? Wir erklären die wichtigsten Ausdrücke rund um SEO in unserem Glossar.

 

 

weiterlesen