Suchmaschinen und Optimierung gehören zusammen wie Fragen und Antworten. Die Frage bestimmt, was die Antwort liefern muss. Und Relevanz entscheidet, was die Suche liefert. Der Algorithmus ändert sich. Wir zeigen die Abweichungen.
Webseiten entstehen im Browser des Nutzers – nicht auf dem Server. Der Server liefert nur die Bausteine. Wie eine Seite tatsächlich aussieht, reagiert und funktioniert, entscheidet sich erst im Browser. Wer nur serverseitig prüft, kontrolliert den Plan, aber nicht das Ergebnis. Ob eine Seite wirklich funktioniert, zeigt sich auf dem Bildschirm, auf dem sie entsteht. Genau dort schauen wir hin.
Das Nutzerverhalten verändert sich grundlegend. Menschen bewegen sich zunehmend in geschlossenen digitalen Ökosystemen — Google, KI-Agenten wie ChatGPT, Claude, Perplexity oder Social Media — und verlassen diese immer seltener. Die Suchmaschine wird zunehmend zur Liefermaschine. Das bedeutet: Benutzer lassen sich Informationen suchen und wiedergeben, ohne selbst die Quelle der Information zu besuchen.
Die Webseite verliert damit ihre klassische Rolle als Präsentation für den Besucher. Stattdessen wird sie zum Datenlieferanten für andere Systeme: Suchmaschinen extrahieren Antworten, KI-Modelle zitieren Inhalte, Voice Assistants lesen vor.
Das verändert, was eine gute Website ausmacht. Es reicht nicht mehr, für den Besucher ansprechend zu sein. Inhalte müssen gleichzeitig maschinenlesbar, strukturiert und semantisch eindeutig sein — damit Suchmaschinen und KI-Systeme sie als verlässliche Quelle erkennen und weiterverwenden.
Fehlerhafte SEO/GEO-Konfigurationen sind leicht zu übersehen, werden spät sichtbar und sind schwer zu beheben.
Wenn mehrere URLs denselben oder ähnlichen Inhalt zeigen, weiß Google nicht, welche Version in den Suchergebnissen erscheinen soll. Die Folge: Ihre Rankings werden auf mehrere Seiten verteilt statt gebündelt. Ein Canonical-Tag sagt der Suchmaschine eindeutig, welche URL die maßgebliche Version ist.
Die robots.txt ist die erste Datei, die jeder Crawler liest — Google, Bing, aber auch KI-Systeme wie GPTBot (ChatGPT), ClaudeBot oder Perplexity. Wenn diese Datei wichtige Seiten sperrt, existieren sie für Suchmaschinen und KI-Antworten schlicht nicht. In der Ära von AI Search entscheidet die robots.txt nicht mehr nur über Rankings, sondern ob Ihre Inhalte überhaupt in KI-generierten Antworten zitiert werden.
Die Sitemap ist Ihr Inhaltsverzeichnis für Suchmaschinen und KI-Crawler. Ohne sie müssen Crawler jeden Link selbst entdecken — neue Seiten werden erst Wochen später gefunden, manche nie. Besonders bei großen oder häufig aktualisierten Websites führt eine fehlende Sitemap zu lückenhafter Indexierung.
Wenn jemand Ihre Seite auf LinkedIn, X oder WhatsApp teilt, bestimmen Open-Graph-Tags, welches Bild, welcher Titel und welcher Text angezeigt werden. Ohne diese Tags generiert die Plattform eine zufällige Vorschau — oft unvorteilhaft. Das kostet Klicks und damit Traffic.
Google indexiert seit 2021 ausschließlich die mobile Version Ihrer Website (Mobile-First-Index). Wenn Ihre Seite auf dem Smartphone schlecht funktioniert, betrifft das nicht nur mobile Nutzer — es verschlechtert Ihr Ranking auf allen Geräten.
Core Web Vitals sind ein offizieller Google-Ranking-Faktor. Ein langsamer Server-Response verschlechtert alle nachgelagerten Metriken wie Largest Contentful Paint und Interaction to Next Paint. Nutzer spüren die Verzögerung, Suchmaschinen messen sie — und stufen langsame Seiten in den Ergebnissen herab.
Wenn Ihre Website in mehreren Sprachen existiert, sagt hreflang Google, welche Version für welches Land bestimmt ist. Ohne diese Zuordnung kann die deutsche Version in amerikanischen Suchergebnissen erscheinen — und umgekehrt. Das führt zu verwirrten Nutzern und verlorenen Rankings in allen Märkten.
Suchmaschinen und KI-Systeme nutzen die Überschriftenstruktur (H1 → H2 → H3), um den Inhalt einer Seite zu verstehen. Fehlende oder übersprungene Ebenen signalisieren eine unklare Informationsarchitektur. Für KI-gestützte Suche ist eine saubere Hierarchie besonders wichtig, da die Antwortgenerierung auf dem semantischen Verständnis der Seitenstruktur basiert.
Strukturierte Daten sind die Sprache, in der Ihre Website direkt mit Suchmaschinen und KI-Systemen kommuniziert. Sie sagen explizit: ›Dies ist ein Produkt‹, ›Das ist der Preis‹, ›Hier sind die FAQ‹. Ohne strukturierte Daten muss Google raten — und rät oft falsch. Für KI-gestützte Suche (Google AI Overviews, ChatGPT mit Browsing, Perplexity) sind strukturierte Daten noch entscheidender: Sie bestimmen, ob Ihr Inhalt als verifizierte Quelle in KI-Antworten zitiert wird oder im Rauschen untergeht. Rich Results, Knowledge Graph und Featured Snippets basieren alle auf Schema.org.
Der Title-Tag ist der wichtigste einzelne On-Page-Ranking-Faktor. Er erscheint als klickbare Überschrift in den Suchergebnissen und bestimmt maßgeblich, ob Nutzer Ihre Seite anklicken. Ein fehlender Title, ein doppelter Title oder ein generischer Title (›Home‹) verschenkt das stärkste Signal, das Sie Google geben können.
Meta-Tags
Roboter und Indexierung
Mobilfreundlichkeit
URL und Kanonisierung
Seitenstruktur
Leistung (SEO-Auswirkung)
Häufige Fragen zu technischen SEO-Audits.