Technisches SEO – Optimierung beginnt im Quelltext

verschiedne Tags in Google-Farben

Vor einigen Jahren genügte es, im Quelltext einer Website unter den Metadaten ein paar Keywords aufzulisten und den vorbeischauenden Suchmaschinen damit mitzuteilen, worum es hier geht. Das lud zum Mißbrauch ein und sagte auch bei gutem Willen meist mehr über die Ziele als die wirklichen Inhalte einer Website. Diese simple Kennzeichnung als technisches SEO zu bezeichnen wäre sicher übertrieben – und doch waren es die Anfänge.

Inzwischen weiß jeder erfolgreiche Seitenbetreiber, dass vor allem der wirkliche Inhalt zählt, dass Aktualität und Textlänge, bestimmte Keywordverhältnisse und hunderte anderer Faktoren über Sein oder Nichtsein in den SERPS entscheiden. Suchmaschinenoptimierung, bekannt unter dem englischen Kürzel SEO, ist irgendwas zwischen purem Handwerk und Alchemie. Viele heiß gehandelten SEO-Tipps resultieren nur aus Beobachtungen und Vermutungen, welche Rankingfaktoren Suchmaschinen, also vor allem Google, wohl besonders entscheidend beurteilen.

Die ständige Fortbildung der Autoren zu weboptimiert denkenden Redakteuren und spezialisierte Tools, die die Keyword-Textverhältnisse errechnen oder das Vorkommen der Schlagworte in Überschriften kontrollieren sind aber nur ein Teil des Weges an die Spitze in den SERPS.

Denn all das nützt wenig, wenn die technische Basis nicht stimmt. Doch gerade das technische SEO wird oft vernachlässigt. Zwar bilden Contentmanagement-Systeme (CMS) wie WordPress in der Regel eine gute Grundlage, aber gerade bei der Neuerstellung von Seiten sollten auch die technischen SEO-Aspekte gut geplant und überprüft werden.

Duplicate Content, 404-Fehler und tote Links verschlechtern die Position bei Google

Damit die großen Suchmaschinen (neben Google gibt es immer noch Bing und Yahoo) die Seiten vollständig kennen lernen, sollte immer eine maschinenlesbare Sitemap im XML-Format bereitstehen. Diese wird bei der Google Search Console (früher Webmastertools) angegeben und sorgt, wenn sie automatisch aktualisiert wird, dafür, dass der Index immer aktuell bleibt und der Robot möglichst regelmäßig vorbeischaut um die Inhalte aufzunehmen. Trifft er dabei häufig auf Fehler vom Typ 404, also tote Links, macht ihn das nicht glücklich und schon haben wir die ersten Minuspunkte. Lädt die Seite nicht schnell genug, Inhalte wurden verschoben, aber nicht mit dem 301-Statuscode gekennzeichnet und mobil ist die Seite gar nicht zu gebrauchen? Dann wird es eng für eine gute Plazierung.

Ein semantisch korrekt aufgebauter HTML-Code, die richtige Hierarchie im DOM und eine richtig aufgebaute robots.txt sind die Grundlage, um von Google überhaupt ernst genommen zu werden. Ist die Seite dann im https-Modus verfügbar und verlinkt sie zu angeschlossenen Social-Media-Seiten steigt sie auch in der Gunst der Suchmaschinen.

Sinnvoll ist auch die Verwendung von Content-Delivery-Networks (CDN). Wird zum Beispiel die häufig genutzte jQuery-Bibliothek über ein CDN integriert, statt sie lokal abzulegen, wird sie meist aus dem Cache des Nutzerbrowsers geladen, da er diese bereits zuvor verwendet hat.

<script src="https://ajax.googleapis.com/ajax/libs/jquery/2.1.3/jquery.min.js"></script>

Dadurch wird die Seite nicht nur schneller geladen, das CDN ist ebenso wie SSL ein sogenannter „Trust-Faktor“ für die Suchmaschine. Auch große Grafiken und Videos können in CDNs ausgelagert werden.

Wer seine Seite auf https umgestellt hat, sollte die Geschwindigkeit der Seite im Auge behalten. In der Regel ist das aber kein Problem und der Server verpackt die höheren Anforderungen an die Systemressourcen. Die SSL-Verschlüsselung muss für Googles Ansprüche mindestens 2048 Bit betragen.

Mobile SEO – Vorsicht bei alternativen Seiten

Zum Glück ermöglichen CSS-Frameworks wie Bootstrap, Skeleton, Pure.css oder Spectre heute eine einwandfreie Anpassung desselben Inhaltes an verschiedene Ausgabemedien. Daneben gibt es aber immer noch den Ansatz, für verschiedene Medien separate Seiten anzubinden. Das kann Vorteile haben und ist kein Problem – außer, das wir damit den gleichen Inhalt doppelt ausgeben. Zwar bewirkt dieser „Duplicate Content“  keine wirkliche Verschlechterung für die Gesamtseite, er wird aber nicht indexiert bzw. der falschen Seite zugeordnet. Quasi umsonst geschrieben.

Generell ist dieses Problem zwar bekannt, wird aber immer wieder außer acht gelassen – zumal es für den reinen Autor kaum zu managen ist. Der technisch richtige Umgang mit Duplicate Content ist der Canonical Tag. Hiermit wird auf den Seiten hinterlegt, welche die „wahre Quelle“ ist, also eine einzelne Seite als Content-Mutter definiert. Mit dem Hinweis rel=“alternate“ wird dann wieder auf die alternativen Fundstellen hingewiesen.

AJAX-Content im technischen SEO

Dynamisch nachgeladener Content, z. B. über AJAX erzeugtes „infinite Scrolling“, bei dem lange Listen nicht erst komplett geladen sondern in die schon angezeigte Website nachgeholt werden, sind eine besondere Herausforderung für das technische SEO. Denn was nicht sofort geladen ist, wird von der Suchmaschine nicht mehr gesehen. Stattdessen müssen nun neben den per JavaScript besorgten Content-Elementen statische Seiten mit einer klassischen Paginierung angeboten werden – diese sollten aber nicht indexiert werden.

Google bietet zum richtigem technischen SEO bei Infinite Scrolling genaue Informationen an.

 

Werbung


Hinterlasse jetzt einen Kommentar

Kommentar hinterlassen