AI Overviews, Bot-Traffic & das Ende der Klicks – Wie KI die Google-Suche verändert (Recap zum SEODAY 2025)

Zwischen Apokalypse und Trivialität, das war nicht weniger als der Korridor, zwischen denen sich die Einschätzungen der Experten bewegten, ob KI nun die Zukunft der Onlinesuche ist oder Google seinen Platz auch in der neuen Arena behaupten kann. Tatsächlich war kein Thema so omnipräsent wie AI-Search beim diesjährigen SEODAY. Welche spannenden Erkenntnisse es noch rund um SEO und GEO auf Deutschlands bekanntester SEO-Konferenz gab, erfahren Sie im nachfolgenden Artikel.
Kürzlich ging der SEODAY im Rheinenergiestadion in Köln, der Heimspielstätte des Bundesligaaufsteigers 1. FC Köln, zu Ende und es überrascht wenig, dass es nahezu keinen Vortrag gab, der das Thema KI nicht in den Fokus nahm. Kaum eine Branche ist so elektrisiert und erschüttert gleichermaßen, wie das Online Marketing im Allgemeinen und die Suchmaschinenoptimierung im Speziellen. Geht es doch um nicht weniger als den größten Wandel der Industrie seit dem Launch von Google AdWords im Jahr 2000. Daher verwundert es nicht, dass das Thema omnipräsent war und wahlweise vor den apokalyptischen Folgen für den Markt der Digitalagenturen gewarnt wurde, oder aber die Zahlen der Nutzerentwicklung von ChatGPT und Co. bewusst heruntergespielt wurden.
Aber der Reihe nach. Die wohl bekannteste SEO-Konferenz in Deutschland konnte auch in diesem Jahr wieder mit einem hervorragenden Line Up an Speakerinnen und Speakern überzeugen. Vom Sistrix-Chef Johannes Beus, über evnext-Geschäftsführer Dominik Wojcik bis hin zu Peec-AI-CMO Malte Landwehr, waren zahlreiche Branchengrößen vertreten. Ebenso illuster war der Expo-Bereich besetzt, ob ReachX, SEOCATION oder performanceLiebe, SEODAY-CMO Fabian Rossbacher gelang es mit seinem Team wieder einmal eine hervorragend organisierte Veranstaltung auszurichten, die an Highlights nicht arm war. Selbstredend ließen auch wir von hurra.com es uns nicht nehmen mit dabei zu sein und zahlreiche Kunden, Partner und Business-Freunde zu treffen. Shoutouts gehen raus an Annett und Nils von der Robinson GmbH und Nico Kavelar von SE Ranking.
Das Ende der Klicks, Sichtbarkeit als neue SEO-KPI?
Und hier kommen unsere Highlight-Vorträge und da darf natürlich Sistrix-Chef Johannes Beus nicht fehlen, der den Zuhörerinnen und Zuhörern die Auswirkungen der AI-Overviews in der Google-Suche darlegte. Den Erhebungen seines Unternehmens nach werden die AI-Overviews bereits bei 20% aller Keywords im deutschen Google-Index eingeblendet. Die Zusammensetzung der KI-Antworten ist dabei längst nicht immer gleich. Sie enthalten zwar immer mindestens einen Textabsatz und in 98% der Fälle auch Listenelemente, jedoch nur in jedem vierten Fall Bilder. Überschriften sind hingegen in 92% der Anzeigen vorhanden, Karussell, Karten- oder Videoeinblendungen sind jedoch lediglich in unter 11% aller Ausspielungen inkludiert.
Eine interessante Frage in diesem Zusammenhang ist die nach der Quellennennung. Hier liegt auch der größte Unterschied zum Wettbewerber OpenAI, der in ChatGPT nur bei jeder fünften Antwort überhaupt Quellenverweise macht. Google's DNA entsprechend liegt dieser Wert beim Branchenprimus aus Mountainview, Kalifornien deutlich höher. In 97% aller Ergebnisse sind Quellenangaben enthalten. Allerdings sind diese, wie man es aus ChatGPT kennt, hinter einem Linksymbol als Block von im Mittelwert vier verschiedenen Quellen angegeben. Nur in rund 19% der Fälle sind jedoch klassische blaue Inlinelinks inkludiert, wie wir sie traditionell von Google kennen. Das ist für Unternehmen, die bislang ihren Traffic vor allem über die organischen Suchmaschineneinträge erhalten haben, wenig ermutigend. Und es kommt noch heftiger, denn geschlagene 60% der Antworten enthalten überhaupt keine Markennennungen und auch in den anderen 40% der Fälle, muss man sich den Platz an der Sonne mit im Schnitt 2,87 Wettbewerbern teilen, denn Google nennt nahezu nie nur eine Marke im Ergebnis. Der im Zuge des im aktuellen GEO-Hypes immer wieder als wichtig gepriesene EEAT-Faktors ist ebenso nicht von der Hand zu weisen. Die Top-Quellen sind häufig, neben Wikipedia oder YouTube, bekannte Marken, wie Amazon, ADAC, Vodafone und Co.
Einen lokalen Nachteil müssen Webseitenbetreiber in DACH zumindest vorerst wohl ebenso mitbedenken. So sind nicht nur deutschsprachige Ergebnisse im Wettbewerb, sondern auch englischsprachige Inhalte, die Google selbstständig übersetzt hat. Wir erleben somit eine Form der Globalisierung des Wettbewerbs um die Sichtbarkeit in den Ergebnissen. Diese Beobachtung konnte bislang aber nur in eine Richtung (von Englisch zu Deutsch) gemacht werden, leider noch nicht umgekehrt, obschon damit mittelfristig zu rechnen sein wird, um die Kulturrelativität nicht zu verlieren. Für SEOs hatte Beus somit wenig Grund zum Jubeln im Gepäck und regte abschließend an, als künftige Hauptmetrik nicht mehr Klicks, sondern Sichtbarkeit zu bewerten. Zum Glück bietet sein Unternehmen ja nach wie vor den passenden Sichtbarkeitsindex dafür an. Ein Schelm, wer da an einen Zusammenhang glaubt 😉.

Analyse des Bot-Traffics, wie oft erscheint meine Seite in KI-Suchen?
Bessere Aussichten konnte Juliane Bettinga von SEOSOON den Konferenzteilnehmenden geben und ich nehme es gerne vorweg, ihr Vortrag war nicht nur für mich das Highlight des Tages, sondern auch für die Mehrheit des Plenums, denn sie konnte den Publikumspreis für die beste Keynote mit nachhause nehmen.
Wie dem auch sei, die aus Jena stammende Bettinga nahm die Zuhörer mit in die Tiefen der technischen Crawlingsteuerung durch KI-Bots und gab viele hilfreiche Tipps zur Überwachung der Bot-Aktivitäten. Zuvorderst stellte sie klar, dass KI-Bot nicht gleich KI-Bot ist, sondern dass die Betreiber (ähnlich wie Google) unterschiedlichste Crawler im Repertoir haben. Allen voran dienen die regulären Spider, wie der GPT-Bot, dem Ermitteln von Trainingsdaten und können somit als “AI-Trainer” klassifiziert werden. Von ihnen abzugrenzen sind die Echtzeitabrufe der AI-Assistenten, die in den Logfiles ausgewertet werden können. Hierbei handelt es sich um ChatGPT-User-Hits, die jedes Mal ausgelöst werden, wenn ChatGPT und Co. im Thinking-Modus eine Websuche ausführen und in diesem Zuge die Seite besuchen. Zu beachten ist das System der Query Fanouts, also des Zerlegens einzelner Anfragen in Sub Queries. Landläufig könnte man dies mit Longtail-Keywords aus der klassischen Suche vergleichen, nur dass LLMs die einzelnen Rechercheergebnisse zu den Sub Queries wieder zusammenführt, um die entsprechende Antwort auszugeben. Zu guter Letzt sind noch die AI-Crawler mit ihren asynchronen Aufrufen zu nennen, die der Verbesserung der Daten dienen.
Doch Juliane Bettinga gab nicht nur Einblicke, wie man seine Logfiles auf KI-Bots prüft und diese auswertert, sondern auch ein paar Best Practices mit auf den Weg, um möglichst gut durch die Crawler erfasst zu werden. So sei ein sauberer Quellcode ebenso hilfreich, wie das regelmäßige Prüfen, ob die eigenen Server den massiv angestiegenen Traffic durch Bots im Netz überhaupt zu jeder Zeit auffangen können. Auch sei es elementar, dass Inhalte ohne JS crawlbar sind und strukturierte Datenauszeichnung genutzt wird. Diese Tipps sind allesamt aus dem SEO bereits bekannt, jedoch vielerorts nach wie vor nur mangelhaft umgesetzt. Es überrascht wenig, dass auch Bettinga ein passendes Tool zur Logfileanalyse im Angebot hat, ebenso wie einen Checker, ob überhaupt alle AI-Bots Zugriff auf die eigene Domain haben. Beides findet man in einer Free-Version auf seosoon.de.
Ist Ihre Website AI-ready oder unsichtbar für Nutzer in ChatGPT & Co.?
Und genau hier griff sie einen wichtigen Punkt auf, den ich in meiner Keynote beim diesjährigen OMT in Mainz bereits adressierte: Die Zugänglichkeit der eigenen Webseite für die Crawler der KI-Modelle. Denn im Gegensatz zu Google, sind ChatGPT & Co. als Antwort- oder Dialogmaschinen konzipiert und unterhalten keinen eigenen Index, aus dem die Ergebnisse gespeist werden. Je komplexer die Anfrage des Nutzers, desto wahrscheinlicher ist es, dass eine Echtzeitabfrage Teil der Recherche ist. Wo Google auf bereits gecrawlte und im Store Server gespeicherte Informationen zurückgreift, die nur regelmäßig überprüft und gegebenenfalls justiert werden, fußen LLMs oftmals auf aktuellen Crawls. Eine Domain, die hier die Bots aussperrt, wird folglich, trotz aller Optimierung des Contents, nicht in den Ergebnissen stattfinden können. Wer glaubt, dass dies selten der Fall ist, irrt. Erst neulich fand ich wieder einmal eine Webseite eines FTSE-250-Konzerns, die (ungewollt) absolut alle AI-Bots aussperrte.
Wenn Sie sicherstellen wollen, dass Ihre Seite nicht nur von Google, sondern auch von KI-Systemen erfasst und ausgespielt wird und dass Sie dabei nicht nur Sichtbarkeit, sondern auch Kunden gewinnen, sprechen Sie mit uns. Wir unterstützen Sie strategisch und technisch. Vereinbaren Sie gerne Ihr kostenfreies Erstgespräch.

