Hey! Lass uns über eine wichtige Entdeckung im Bereich der KI und Suchmaschinen sprechen. Es wurde festgestellt, dass KI-Crawler Schwierigkeiten haben, bestimmte Informationen, wie strukturierten Daten, zu erkennen, wenn diese per JavaScript hinzugefügt werden. Warum ist das gefährlich? Lies weiter!
Inhaltsverzeichnis
ToggleEine Entdeckung: KI-Crawler und strukturierten Daten
Es wurde kürzlich aufgedeckt, dass viele KI-Crawler wie GPTBot und ClaudeBot strukturierten Daten übersehen, die nach dem Laden einer Webseite über JavaScript hinzugefügt werden. JSON-LD, ein üblicher Typ strukturierter Daten, wird so oft „unsichtbar“ für diese Crawler – und das hat Folgen:
- Kernproblem: Diese Bots können kein JavaScript ausführen. Das bedeutet, dass Inhalte, die nachträglich hinzugefügt werden, nicht von ihnen gesehen werden.
- Tag Manager: Websites, die Daten mit Tools wie Google Tag Manager (GTM) hinzufügen, sind davon besonders betroffen.
Warum traditionelle Suchmaschinen keine Probleme haben
Anders als AI-Crawler kann Googlebot beispielsweise JavaScript ausführen. Während also JSON-LD, das via GTM eingefügt wird, von Google erfasst werden kann, bleiben viele KI-Crawler blind für diese Inhalte. Sie sehen nur den Roh-HTML-Code, der vom Server bereitgestellt wird.
Schlüsselerkenntnisse
Hier sind einige wichtige Details, die aus der Untersuchung hervorgehen:
- Initiales Laden: Die KI sieht nur die HTML-Struktur der Seite, wie sie vom Server kommt. Alles, was später durch JavaScript hinzugefügt wird, bleibt unsichtbar.
- DOM-Veränderungen: JavaScript verändert die Seite erst im Browser, weshalb diese Änderungen für einige Bots nicht sichtbar sind.
- Bots ohne Rendering: Ohne JavaScript-Rendering ist es für KI-Crawler unmöglich, angepasstes HTML zu sehen.
Google warnt: Übermäßiger Gebrauch von JavaScript
Google selbst hat in einem Podcast darauf hingewiesen, dass übermäßiger JavaScript-Gebrauch problematisch sein kann. Besonders grundlegende SEO-Elemente wie strukturierte Daten könnten darunter leiden. Die Empfehlung ist es, essenzielle Inhalte in der HTML-Seitenstruktur zu verankern und nicht ausschließlich per JavaScript einzufügen.
Wie du es besser machen kannst
Für die bestmögliche Sichtbarkeit solltest du folgende Tipps beachten:
- Serverseitiges Rendering (SSR): Lasse deine Seiteninhalte serverseitig generieren, sodass die Struktur direkt im HTML enthalten ist.
- Statisches HTML: Füge wichtige Markups direkt in den HTML-Code der Seite ein.
- Vorausgerenderte Seiten: Websites, die bereits vollständige HTML-Daten an Crawler liefern, haben einen klaren Vorteil.
Warum das wichtig ist
Der Einfluss von KI auf die Internetsuche wächst rasant. Wenn deine Website stark von JavaScript für ihre Daten abhängt, verlierst du möglicherweise wertvolle Chancen, von KI-gestützten Suchmaschinen berücksichtigt zu werden. Durch die Anpassung an serverseitige oder statische Lösungen kannst du sicherstellen, dass deine Website sowohl für traditionelle als auch KI-basierte Suchcrawler sichtbarer wird!
Lass uns dein Wissen teilen und diese Tipps umsetzen, damit deine digitale Präsenz sowohl in Suchmaschinen als auch in KI-Plattformen optimal performt!