Ist SEO tot, weil ChatGPT lebt?

Immer wieder hört und liest man die These, dass SEO tot sei, weil immer mehr Menschen zunehmend ChatGPT, Gemini, Claude oder Perplexity nutzen. Diese These ist ein Musterbeispiel dafür, wie ein Hype den Blick auf die – leider komplizierte – Realität verstellt.

Antworten statt Linklisten

Was sich mit ChatGPT und anderen ändert, ist ja vor allem die Frage, wie Nutzer Information aus dem Web abrufen. Wir wollen nun immer öfter keine Linkliste mehr zum weiteren Suchen, sondern eine Antwort auf eine Frage, die wir haben. Dieser Trend ist jedoch wenigstens ein Jahrzehnt alt. Ich nehme als Beispiel in meinen SEO-Seminaren immer die Sucheingabe „Wie lange kocht man ein weich gekochtes Ei?“ als Beispiel. Ursprünglich erhielt man bei Google und anderen Suchmaschinen eine Trefferliste, in der jenes Dokument, das genau diese Headline hatte, vorne stand. Bereits 2009 beschritt Wolfram Alpha den Weg, statt Linklisten Antworten auszugeben. Google zog später mit Featured Snippet, Rich Results und Knowledge Panels nach, die am Kopf der Trefferliste Antworten geben. Mittlerweile stehen bei Google die 4 bis 6 Minuten für ein weich gekochtes Ei am Kopf der Suchergebnisseite.

Hinter all diesen Bestrebungen stecken Suchmaschinentechnologien, die semantische Antworten geben – und auf (anfänglich noch eher simplen, nicht selbst lernenden) Sprachmodellen basieren. Mittlerweile zeigt Google am Kopf des Suchergebnisses Antworten von Gemini. Die Suchmaschine nutzt KI – statt dass KI die Suchmaschine killt.

Sprachmodelle sind seit langem Teil guter SEO

Interessanter aber ist noch, wie Suchmaschinen die KI bei der Analyse des Web-Contents einsetzen. Seit mindestens zehn Jahren bewertet Google Inhalte durch die Ermittlung von Kontexten. Dazu werden beispielsweise Kookkurrenzen (das gemeinsame Auftreten von Begriffen, wie „Chirurgie“ und „Operation“) sowie „linke und rechte Nachbarn“ eines Begriffs (wie „minimalinvasive Operation“) ermittelt. Einen guten Einblick dazu gibt die Uni Leipzig mit ihrem Tool „Wortschatz Leipzig“. Google kann mit solchen semantischen Analysen herausbekommen, ob – einfach ausgedrückt – ein Dokument sich wirklich kenntnisreich mit dem in Frage stehenden Thema auseinandergesetzt hat.

Keyword-Stuffing (also die häufige Erwähnung des zu erwartenden Suchbegriffs, auf den ein Text optimiert werden soll) war spätestens damals „tot“. Stattdessen schossen ab 2012 „WDF*IDF-Tools“ aus dem Boden, weil es wichtig wurde, den Suchmaschinen zu beweisen, dass man die wichtigsten Aspekte eines Themas in seinem zu optimierenden Artikel abdeckte. Bereits damals wurden also schrittweise Modelle und Algorithmen der aufkommenden Künstlichen Intelligenz einbezogen.

Dies hat schon damals auch dazu geführt, dass Google verstand, ob ein Link von einer Website auf eine andere inhaltlich begründet war. Solche inhaltlich relevanten Links bewirkten fortan bei der Bemessung der „Linkpopularität“ mehr als die Links inhaltlich völlig anders ausgerichteter Websites. Der Link eines Hundezüchtervereins auf einen Hundefutterhersteller zählt also mehr als der Link eines Radfahrerklubs, um bei Google nach oben zu kommen.

Wissen der SEO wird nicht über Bord geworfen

Nun zur Kernfrage: Wie wählt (oder rankt) Künstliche Intelligenz eigentlich die Websites, die es im semantischen Suchergebnis (also einer Antwort statt einer Linkliste) berücksichtigt? Auch weiterhin gilt, dass die klassischen Parameter der SEO den entscheidenden Ausschlag geben, welche Aussagen es von einer Website in ein semantisches Suchergebnis schaffen. Also: Dokumenten-Relevanz (Inhalte genau auf die Sucheingabe passend), Linkpopularität (im Sinne der Vererbungslehre des PageRanks), Authority (Bedeutung der Website im Kontext ihres Wissensgebietes), um nur einige zu nennen. Wenn man in den letzten zehn oder fünfzehn Jahren als SEO-Experte den oben beschriebenen steigenden Einfluss semantischer Modelle und Algorithmen der KI berücksichtigt hat, dann hilft einem dieses Wissen auch künftig, in den semantischen Suchergebnissen eine Rolle zu spielen. SEO ist also nicht tot, sondern weiterhin dringend notwendig.

Das zeigt sich auch an Folgendem: Perplexity wird (nicht zu Unrecht) dafür gefeiert, dass es die Quellen für seine semantischen Suchergebnisse am Rand der Seite als Linkliste angibt. Quellen, die natürlich mit Algorithmen ermittelt wurden, auf die gute und zeitgemäße SEO ausgerichtet ist.

Semantik wird noch wichtiger werden

Die Frage, wie eine Website es schafft, in ein semantisches Suchergebnis zu gelangen, ist mithin eher graduell. Denn schon lange wird von Suchmaschinen – wie oben beschrieben – so etwas wie eine signifikante Übereinstimmung eines zu analysierenden Dokuments mit statistisch erwartbarer Semantik überprüft. Dieser Faktor dürfte allerdings an Bedeutung gewinnen. Wer wortwörtlich jenen Satz in seinem Content stehen hat, den das KI-Tool als sinnvollste Antwort erachtet und dem User am Bildschirm ausgibt, hat die größten Chancen, in der Antwort auch erwähnt zu werden.

KI-Tools killen also die SEO nicht, sondern wachsen mit ihr zusammen. Es sei daran erinnert: Video didn’t kill the radio star. So wie das Radio die Zeitung nicht killte, und das Fernsehen das Radio nicht. Und das Internet das Fernsehen nicht. Das Rieplsche Gesetz wird auch hier gelten.