In der Google Webmaster Search Konsole wird unter Gecrawlt – zurzeit nicht indexiert Seiten für eine URL beim Wert „Indexierung zulässig“ das Ergebnis „Nicht zutreffend“ angezeigt. Was bedeutet das?
Gecrawlt – zurzeit nicht indexiert
Wenn im Google Search Console-Bericht „Indexierung zulässig“ den Wert „Nicht zutreffend“ hat, bedeutet dies, dass die betreffende URL nicht über eine robots.txt-Datei blockiert wird, aber dennoch nicht von der Google-Suchmaschine indexiert wurde. Dies kann auf eine Reihe von Gründen zurückzuführen sein, wie z.B. ein Fehler in der Meta-Robots-Tag oder ein technisches Problem mit der Website, das die Indexierung erschwert.
Es kann auch bedeuten das die Seite gecrawlt wurde aber nicht als wertvoll für die Indexierung befunden wurde. Es empfiehlt sich in solchen Fällen die entsprechende URL überprüfen und die Probleme, falls vorhanden, zu beheben, um die Indexierung zu ermöglichen.
Bericht zur Seitenindexierung
In dem Google Bericht zur Seitenidexierung erfährt Du weitere Details, welche Seiten Google auf Deiner Website finden und indexieren kann und welche Indexierungsprobleme möglicherweise aufgetreten sind.
Welche Probleme können das im genauen sein?
Welche Probleme können das im genauen sein, die zu dem Ergebnis: Gecrawlt – zurzeit nicht indexiert führen?
Einige der möglichen Probleme, die dazu führen können, dass eine URL nicht von der Google-Suchmaschine indexiert wird, obwohl sie nicht über eine robots.txt-Datei blockiert wird, sind:
- Probleme mit der Website-Struktur: Wenn die Website-Struktur unklug gestaltet ist oder von Fehlern geprägt ist, kann dies die Indexierung erschweren.
- Meta-Robots-Tag: Wenn die Meta-Robots-Tag auf „noindex“ gesetzt ist, wird die Seite von der Google-Suchmaschine nicht indexiert.
- Fehlerhafte Weiterleitungen: Fehlerhafte Weiterleitungen können dazu führen, dass die Google-Suchmaschine Schwierigkeiten hat, die richtige Seite zu finden und zu indexieren.
- Doppeltes Inhalt: Eine URL kann nicht indexiert werden, wenn es mehrere ähnliche oder identische Versionen der Seite gibt.
- Inhalt ist nicht für die Suchmaschine optimiert: Wenn die Inhalte einer Seite nicht für die Suchmaschine optimiert sind, wie z.B. wenig oder keine Keywords, wenig Inhalt oder fehlende Struktur, wird die Seite wahrscheinlich nicht gut indexiert.
- Probleme mit der Server-Performance: Wenn die Server-Performance nicht optimal ist, kann dies dazu führen, dass die Google-Suchmaschine Schwierigkeiten hat, die Seite zu crawlen und zu indexieren.
- Andere technische Probleme: Es gibt viele andere technische Probleme, die dazu führen können, dass eine Seite nicht von der Google-Suchmaschine indexiert wird, wie z.B. Probleme mit dem Crawling oder Probleme mit der Sitemap-Datei. Es empfiehlt sich die oben genannten Faktoren sowie die Suchmaschinenoptimierung und technische Aspekte der Webseite zu überprüfen. Und ggf. die notwendigen Anpassungen vorzunehmen, um die Indexierung durch die Google-Suchmaschine zu ermöglichen.
Mit welchen Maßnahmen und Analyse Tools kann ich die verschiedenen Probleme eingrenzen?
Mit welchen Maßnahmen und Analyse Tools lassen sich die verschiedenen Probleme, welche zu dem Ergebnis: Gecrawlt – zurzeit nicht indexiert führen besser eingrenzen?
Um die verschiedenen Probleme, die dazu führen können, dass eine URL nicht von der Google-Suchmaschine indexiert wird, einzugrenzen, können Sie die folgenden Maßnahmen und Analyse-Tools verwenden:
- Google Search Console: Verwenden Sie die Google Search Console, um Probleme mit der Website zu identifizieren und zu beheben. Sie können auf Berichte zugreifen, die Informationen über die Anzahl der gecrawlten Seiten, die Indexierungsfehler, die Verweise und vieles mehr enthalten.
- Server-Log-Dateien: Analyse der Server-Log-Dateien, um Probleme mit der Server-Performance zu identifizieren. Sie können Informationen wie die Anzahl der Anfragen pro Minute und den Prozentsatz der 404-Fehler finden.
- Crawler-Tools: Verwenden Sie Crawler-Tools wie Screaming Frog, DeepCrawl oder Sitebulb, um Probleme mit der Website-Struktur und -Konfiguration zu identifizieren. Sie können auf Informationen wie doppelte Inhalte, fehlerhafte Weiterleitungen, Meta-Robots-Tags und vieles mehr zugreifen.
- Analyse-Tools für die Nutzerfreundlichkeit: Verwenden Sie Analyse-Tools für die Nutzerfreundlichkeit wie Google Lighthouse, das Ihnen eine Vielzahl von Informationen zur Verfügung stellt, die für die Optimierung der technischen Aspekte Ihrer Webseite entscheidend sind.
- Tools für die Überprüfung des Duplicate Content: Verwenden Sie Tools wie Copyscape oder Siteliner, um Probleme mit doppeltem Inhalt auf Ihrer Website zu identifizieren und zu beheben.
- SEO Auditing Tools: Verwenden Sie SEO Auditing Tools, die Ihnen eine vollständige Analyse Ihrer Webseite und eine detaillierte Berichterstattung über die Fehler, die Probleme und die Optimierungsmöglichkeiten liefert, wie z.B. Ahrefs, SEMrush, Moz etc.
Es ist auch wichtig, die Google Guidelines zu kennen und diese zu befolgen, um sicherzustellen, dass Ihre Webseite für die Suchmaschine optimiert ist und keine grundlegenden Fehler aufweist, die die Indexierung beeinträchtigen können. Es ist wichtig, auf regelmäßiger Basis die Website und seine Konfiguration zu überwachen und die notwendigen Anpassungen vorzunehmen, um eine gute Indexierung durch die Google-Suchmaschine zu ermöglichen.
Eine regelmäßige Überwachung und Analyse der Website ist notwendig, um Probleme frühzeitig zu erkennen und zu beheben, und um sicherzustellen, dass die Website für die Suchmaschine optimiert ist. Auf diese Weise können Sie sicherstellen, dass die Inhalte Ihrer Website leicht von der Google-Suchmaschine gefunden und indexiert werden können, was letztendlich dazu beiträgt, dass Ihre Website für die Nutzer leichter zugänglich ist.