• 017662174125

Wie Ihr 14 Technische SEO-Fehler Findet und Behebt – Teil 1

 
Nachdem wir euch gestern mit Informationen rund um die Mobile-First Optimierung versorgt haben, geht es heute um weitere technische SEO-Probleme. Wir zeigen euch, wie ihr diese finden und beheben könnt.
Wir versuchen es euch so einfach wie möglich zu erklären und zu zeigen, damit ihr das ohne weitere Hilfe umsetzen könnt. Natürlich ist dies kein ganzheitlicher technischer SEO-Audit, allerdings seid ihr mit dieser Checkliste SEO-technisch sehr gut aufgestellt.
Aber nun beginnen wir:

#1 Checkt die Indexierung eurer Website

Wahrscheinlich hat jeder von euch schon einmal irgendwo die Frage gehört: „Wieso ranken wir nicht für unseren Marken-/Unternehmensnamen?“. Eventuell habt ihr diese Erfahrung auch bereits gemacht.
Daher ist es nicht verwunderlich, wenn diese Leute keinen Traffic via Google erhalten. Ein wirklich sehr gut gelungener Artikel zum Thema Indexierung und Rankings hat Sergey Stefoglo bei Distilled geschrieben. Wenn ihr etwas Zeit habt, dann können wir euch diesen Artikel nur wärmstens empfehlen.
Bevor man jetzt verrückt wird und diverse Checklisten durchgeht, genügt die einfache Frage: „Werden unsere Seiten indexiert?“. Um das zu prüfen, geht ihr einfach zu Google und gebt oben in die Suchmaske folgendes ein : site:euredomain.de

technischer-seo-audit-indexierung
 
Wie ihr auf dem Bild sehen könnt, sind ungefähr 129 Seiten indexiert. Das stimmt mit den indexierbaren Seiten überein. Dies ist für euch ein sehr guter Anhaltspunkt. Notiert euch, wieviele indexierbare Seiten ihr habt. Überprüft dann auf diesem Wege, ob die Zahlen zusammenpassen. Darüber hinaus könnt ihr somit zwei weitere Fragen beantworten:
Sind Seiten indexiert, welche wir gar nicht im Index haben wollen?
Tauchen für uns wichtige Seiten gar nicht im Index auf?

Alleine die Beantwortung dieser drei Fragen hilft euch schon sehr weiter. Prüft alle für euch wichtigen Seiten/Beiträge/Kategorien/Produkte und gleicht ab, ob sich diese im Index befinden oder nicht. Prüft auch, ob Subdomains von euch im Index befinden oder nicht. Je nachdem ob es gewollt ist oder nicht, könnt ihr diese indexieren lassen oder eben aus dem Index entfernen. Leider passiert es relativ häufig, dass Webseiten auf Subdomains entwickelt werden. Sobald sie fertig sind, werden diese auf die Hauptdomain live geschaltet. Oftmals wird jedoch vergessen, dass sich sämtlicher Inhalt auch auf der Subdomain befand oder sogar noch befindet. Dies könnte zu einem Duplicate-Content-Problem führen. Daher ist diese Überprüfung sehr wichtig. Sollten fälschlicherweise Inhalte der Subdomain indexiert worden sein, könnt ihr diese in eurer Htaccess mit entsprechenden 301-Weiterleitungen zu den neuen Inhalten leiten.

Ihr könnt auf diesem Wege auch prüfen, ob alte Versionen von Beiträgen/Seiten/Produkten/Kategorien im Index auftauchen, welche ihr egtl. redirected hattet.

#2 Robots.txt

Die Robots.txt ist eine von vielen nicht sonderlich beachtete Textdatei, welche jedoch aus SEO-Sicht sehr mächtig ist. Viele unterschätzen dies. So könnt ihr beispielsweise mit einem einfachen „/“ sehr viel zerstören. Daher ist das genaue Betrachten dieser Datei enorm wichtig.
Ein sehr häufiger Fehler – im Zusammenhang mit der Robots.txt – ist es, beim Live-Schalten der neuen Website die Anweisungen in der Robots.txt zu ändern. Es passiert leider sehr häufig, dass Webseiten entwickelt und live geschaltet werden, die Robots.txt aber weiterhin Crawler ausschließt. Es gibt leider immer noch sehr viele Webseiten im Internet, welche Crawler via Robots.txt ausschließt. Folglich ist klar, dass kein nennenswerter Traffic von den Suchmaschinen erfolgen kann.

Wie prüft ihr eure Robots.txt?
Das könnt ihr zum Einen in der Search-Console tun:

search-console-robots-txt-tester

Dazu loggt ihr euch einfach in der Search-Console ein, geht links auf Crawling und dann auf robots-txt-Tester. Nun gelangt ihr zu dieser Übersicht.
Ihr seht mittig das Datum der letzten Robots.txt-Version. Auf der rechten Seite könnt ihr auch die „Live verfügbare robots.txt ansehen“. Zusätzlich könnt ihr hier eure Robots.txt testen und neu senden.

Zum Anderen könnt ihr einfach direkt euredomain.de/robots.txt eingeben:
Dies ist der leichteste und schnellste Weg um an eure Robots.txt zu kommen.

Ganz wichtig ist, dass eure Robots.txt nicht folgendes enthält:
User-agent: *
Disallow: /

Sollte das der Fall sein, wäre eure gesamte Seite ausgeschlossen. In den organischen Schergebnissen von Google hat diese Anweisung in der Robots.txt dann dies zur Folge:
 
robots txt blockiert indexierung

Solltet ihr also Disallow: / in eurer Robots.txt finden, nehmt dies sofort heraus und beantragt eine neue Indexierung. Solltet ihr eine größere Website oder einen internationalen Webshop haben, ist eure Robots.txt natürlich auch etwas komplexer. Dann ist es sehr wichtig, dass ihr eure Robots.txt. Zeile für Zeile mit eurem Entwickler durchgeht und prüft.

Wir hoffen euch hat unser erster Teil des technischen SEO-Audits gefallen und ihr könnt bereits wichtige Erkenntnisse für euch mitnehmen und anwenden.

Share

1 Comment

Leave a reply

Durch das Surfen auf dieser Website, stimmen Sie der Nutzung von Cookies zu. weitere Informationen

Die Cookie-Einstellungen auf dieser Website sind auf "alle Cookies erlauben" gesetzt, um Ihnen die beste Browsererfahrung zu ermöglichen. Wenn Sie diese Website weiterhin nutzen, ohne Ihre Cookie-Einstellungen zu ändern oder auf "Aktzeptieren" klicken, stimmen Sie dadurch zu.

Schließen