AI Overviews, Bot-Traffic & das Ende der Klicks – Wie KI die Google-Suche verändert (Recap zum SEODAY 2025)
Zwischen Apokalypse und Trivialität, das war nicht weniger als der Korridor, zwischen denen sich die Einschätzungen der Experten bewegten, ob KI nun die Zukunft der Onlinesuche ist oder Google seinen Platz auch in der neuen Arena behaupten kann. Tatsächlich war kein Thema so omnipräsent wie AI-Search beim diesjährigen SEODAY. Welche spannenden Erkenntnisse es noch rund um SEO und GEO auf Deutschlands bekanntester SEO-Konferenz gab, erfahren Sie im nachfolgenden Artikel.
Kürzlich ging der SEODAY im Rheinenergiestadion in Köln, der Heimspielstätte des Bundesligaaufsteigers 1. FC Köln, zu Ende und es überrascht wenig, dass es nahezu keinen Vortrag gab, der das Thema KI nicht in den Fokus nahm. Kaum eine Branche ist so elektrisiert und erschüttert gleichermaßen, wie das Online Marketing im Allgemeinen und die Suchmaschinenoptimierung im Speziellen. Geht es doch um nicht weniger als den größten Wandel der Industrie seit dem Launch von Google AdWords im Jahr 2000. Daher verwundert es nicht, dass das Thema omnipräsent war und wahlweise vor den apokalyptischen Folgen für den Markt der Digitalagenturen gewarnt wurde, oder aber die Zahlen der Nutzerentwicklung von ChatGPT und Co. bewusst heruntergespielt wurden.
Aber der Reihe nach. Die zu den bekanntesten SEO-Konferenz in Deutschland zählende Veranstaltung konnte auch in diesem Jahr wieder mit einem hervorragenden Line Up an Speakerinnen und Speakern überzeugen. Von Sistrix-Chef Johannes Beus bis hin zu Peec-AI-CMO Malte Landwehr waren zahlreiche Branchengrößen vertreten. Ebenso illuster war der Expo-Bereich besetzt, ob ReachX oder SEOCATION, SEODAY-CMO Fabian Rossbacher gelang es, mit seinem Team wieder einmal ein hervorragend organisiertes Event auszurichten, das an Highlights nicht arm war. Dabei hatte ich den SEODAY 2025 ursprünglich nicht auf der Agenda für dieses Jahr, bis Kunden mich fragten, ob ich sie begleiten würde und so traf ich neben ihnen auch noch zahlreiche Partner und Business-Freunde (Shoutouts gehen raus an Nico Kavelar von SE Ranking).
Inhalt:
Das Ende der Klicks, Sichtbarkeit als neue SEO-KPI?
Analyse des Bot-Traffics, wie oft erscheint meine Seite in KI-Suchen?
Ist Ihre Website AI-ready oder unsichtbar für Nutzer in ChatGPT & Co.?
Das Ende der Klicks, Sichtbarkeit als neue SEO-KPI?
Und hier kommen meine Highlight-Vorträge und den Auftakt macht Sistrix-Chef Johannes Beus, der den Zuhörerinnen und Zuhörern die Auswirkungen der AI-Overviews in der Google-Suche darlegte. Den Erhebungen seines Unternehmens nach werden die AI-Overviews bereits bei 20% aller Keywords im deutschen Google-Index eingeblendet. Die Zusammensetzung der KI-Antworten ist dabei längst nicht immer gleich. Sie enthalten zwar immer mindestens einen Textabsatz und in 98% der Fälle auch Listenelemente, jedoch nur in jedem vierten Fall Bilder. Überschriften sind hingegen in 92% der Anzeigen vorhanden, Karussell, Karten- oder Videoeinblendungen sind jedoch lediglich in unter 11% aller Ausspielungen inkludiert.
Eine interessante Frage in diesem Zusammenhang ist die nach der Quellennennung. Hier liegt auch der größte Unterschied zum Wettbewerber OpenAI, der in ChatGPT nur bei jeder fünften Antwort überhaupt Quellenverweise macht. Google’s DNA entsprechend liegt dieser Wert beim Branchenprimus aus Mountainview, Kalifornien deutlich höher. In 97% aller Ergebnisse sind Quellenangaben enthalten. Allerdings sind diese, wie man es aus ChatGPT kennt, hinter einem Linksymbol versteckt. Bei einem entsprechenden Klick werden im Mittelwert vier verschiedene Quellen als Block angegeben. Nur in rund 19% der Fälle sind jedoch klassische blaue Inlinelinks inkludiert, wie wir sie traditionell von Google kennen. Das ist für Unternehmen, die bislang ihren Traffic vor allem über die organischen Suchmaschineneinträge erhalten haben, wenig ermutigend. Und es kommt noch heftiger, denn geschlagene 60% der Antworten enthalten überhaupt keine Markennennungen und auch in den anderen 40% der Fälle, muss man sich den Platz an der Sonne mit im Schnitt 2,87 Wettbewerbern teilen, denn Google nennt nahezu nie nur eine Marke im Ergebnis. Der im Kontext des aktuellen Hypes rund um Generative Engine Optimization (GEO) immer wieder als wichtig gepriesene EEAT-Faktor ist ebenso nicht von der Hand zu weisen. Die Top-Quellen sind häufig, neben Wikipedia oder YouTube, bekannte Marken, wie Amazon, ADAC, Vodafone und Co..
AI-Overviews in Zahlen (Quelle: SISTRIX):
20% aller Suchen in Google inkludieren AI-Overviews,
98% beinhalten Listen,
97% haben Quellenverweise,
60% der Ergebnisse nennen keine Marken, wenn Marken genannt werden, dann im Schnitt 3,87 verschiedene parallel,
Bilder und Videos werden selten gezeigt.
Einen lokalen Nachteil müssen Webseitenbetreiber in DACH zumindest vorerst wohl ebenso mitbedenken. So sind nicht nur deutschsprachige Ergebnisse im Wettbewerb, sondern auch englischsprachige Inhalte, die Google selbstständig übersetzt hat. Wir erleben somit eine Form der Globalisierung des Wettbewerbs um die Sichtbarkeit in den Ergebnissen. Diese Beobachtung konnte bislang aber nur in eine Richtung (von Englisch zu Deutsch) gemacht werden, leider noch nicht umgekehrt, obschon damit mittelfristig zu rechnen sein wird, um die Kulturrelativität nicht zu verlieren. Für SEOs hatte Beus somit wenig Grund zum Jubeln im Gepäck und regte abschließend an, als künftige Hauptmetrik nicht mehr Klicks, sondern Sichtbarkeit zu bewerten. Zum Glück bietet sein Unternehmen ja nach wie vor den passenden Sichtbarkeitsindex dafür an. Ein Schelm, wer da an einen Zusammenhang glaubt 😉.
Abb. 1: Viele bekannte Gesichter konnte ich auch im Expo-Bereich treffen. Am Stand von ReachX war mal etwas anderes als die klassischen Give Aways geboten.
Analyse des Bot-Traffics, wie oft erscheint meine Seite in KI-Suchen?
Bessere Aussichten konnte Juliane Bettinga von SEOSOON den Konferenzteilnehmenden geben und ich nehme es gerne vorweg, ihr Vortrag war nicht nur für mich das Highlight des Tages, sondern auch für die Mehrheit des Plenums, denn sie konnte den Publikumspreis für die beste Keynote des Tages mit nachhause nehmen.
Wie dem auch sei, die aus Jena stammende Bettinga nahm die Zuhörer mit in die Tiefen der technischen Crawlingsteuerung durch KI-Bots und gab viele hilfreiche Tipps zur Überwachung der Bot-Aktivitäten. Zuvorderst stellte sie klar, dass KI-Bot nicht gleich KI-Bot ist, sondern dass die Betreiber (ähnlich wie Google) unterschiedlichste Crawler im Repertoir haben. Allen voran dienen die regulären Spider, wie der GPT-Bot, dem Ermitteln von Trainingsdaten und können somit als “AI-Trainer” klassifiziert werden. Von ihnen abzugrenzen sind die Echtzeitabrufe der AI-Assistenten, die in den Logfiles ausgewertet werden können. Hierbei handelt es sich um ChatGPT-User-Hits, die jedes Mal ausgelöst werden, wenn ChatGPT und Co. im Thinking-Modus eine Websuche ausführen und in diesem Zuge die Seite besuchen. Zu beachten ist das System der Query Fanouts, also des Zerlegens einzelner Anfragen in Sub Queries. Landläufig könnte man dies mit Longtail-Keywords aus der klassischen Suche vergleichen, nur dass LLMs die einzelnen Rechercheergebnisse zu den Sub Queries wieder zusammenführen, um die entsprechende Antwort auszugeben. Zu guter Letzt sind noch die AI-Crawler mit ihren asynchronen Aufrufen zu nennen, die der Verbesserung der Daten dienen.
Doch Juliane Bettinga gab den Zuhörerinnen und Zuhörern nicht nur Einblicke, wie man seine Logfiles auf KI-Bots prüft und diese auswertert, sondern auch ein paar Best Practices mit auf den Weg, um möglichst gut durch die Crawler erfasst zu werden. So sei ein sauberer Quellcode ebenso hilfreich, wie das regelmäßige Prüfen, ob die eigenen Server den massiv angestiegenen Traffic durch Bots im Netz überhaupt zu jeder Zeit auffangen können. Auch sei es elementar, dass Inhalte ohne JS crawlbar sind und strukturierte Datenauszeichnung genutzt wird. Diese Tipps sind allesamt aus dem SEO bereits bekannt, jedoch vielerorts nach wie vor nur mangelhaft umgesetzt. Es überrascht wenig, dass auch Bettinga ein passendes Tool zur Logfileanalyse im Angebot hat, ebenso wie einen Checker, ob überhaupt alle AI-Bots Zugriff auf die eigene Domain haben. Beides findet man in einer Free-Version auf seosoon.de.
Abb. 2: Juliane Bettinga von SEOSOON hielt einen vielbeachteten Vortrag über die Auswertung und Steuerung von AI-Crawlern.
Ist Ihre Website AI-ready oder unsichtbar für Nutzer in ChatGPT & Co.?
Und genau hier griff sie einen wichtigen Punkt auf, den ich in meiner Keynote beim diesjährigen OMT in Mainz bereits adressierte: Die Zugänglichkeit der eigenen Webseite für die Crawler der KI-Modelle. Denn im Gegensatz zu Google, sind ChatGPT & Co. als Antwort- oder Dialogmaschinen konzipiert und unterhalten keinen eigenen Index, aus dem die Ergebnisse gespeist werden. Je komplexer die Anfrage des Nutzers, desto wahrscheinlicher ist es, dass eine Echtzeitabfrage Teil der Recherche ist. Wo Google auf bereits gecrawlte und im Store Server gespeicherte Informationen zurückgreift, die nur regelmäßig überprüft und gegebenenfalls justiert werden, fußen LLMs oftmals auf aktuellen Crawls. Eine Domain, die hier die Bots aussperrt, wird folglich, trotz aller Optimierung des Contents, nicht in den Ergebnissen stattfinden können. Wer glaubt, dass dies selten der Fall ist, irrt. Erst neulich fand ich wieder einmal eine Webseite eines FTSE-250-Konzerns, die (ungewollt) absolut alle AI-Bots aussperrte.
Wenn Sie sicherstellen wollen, dass Ihre Seite nicht nur von Google, sondern auch von KI-Systemen erfasst und ausgespielt wird und dass Sie dabei nicht nur Sichtbarkeit, sondern auch Kunden gewinnen, sprechen Sie mich gerne an. Ich unterstütze Sie strategisch und technisch. Vereinbaren Sie gerne Ihr kostenfreies Erstgespräch.
Fragen?
Künstliche Intelligenz verändert die Suche grundlegend, AI-Overviews, Bot-Traffic und neue Sichtbarkeitslogiken stellen SEO vor den größten Wandel seit dem Start von Google Ads. Doch technologische Umbrüche bieten auch vielerlei Chancen auf Wachstum, wenn man früh genug dabei ist.
Wie kann Ihr Unternehmen sicherstellen, dass Inhalte nicht nur für Google, sondern auch für KI-Systeme sichtbar sind? Welche Rolle spielen AI-Bots, Trainings-Crawls und Echtzeitabfragen und wie bereiten Sie Ihre Website technisch und inhaltlich darauf vor?
Als Experte für KI, GEO und digitale Transformation unterstütze ich Sie dabei, Sichtbarkeit im KI-Ökosystem aufzubauen.
Jetzt unverbindlich Kontakt aufnehmen!
Autor
Sebastian Schulze
Sebastian Schulze ist ein gefragter Keynote Speaker und Experte für Künstliche Intelligenz und Big Data. Mit über einem Jahrzehnt Erfahrung macht er komplexe Technologien für Unternehmen verständlich. Seine Expertise im Marketing hat Unternehmen zu beeindruckenden Umsatzsteigerungen verholfen. Er inspiriert sein Publikum mit fundiertem Wissen und praxisnahen Strategien. Neben seiner beruflichen Tätigkeit engagiert er sich als Reserveoffizier bei der Bundeswehr.
Kontakt & Buchung
Um Sebastian Schulze als Keynote Speaker zu buchen oder anzufragen, kontaktieren Sie uns gerne per E-Mail:
…oder nutzen Sie das Kontaktformular. Wir freuen uns über die Anfrage und melden uns in kürzester Zeit zurück.
Kontakt
Sebastian Schulze
Galgenberg 4
73230 Kirchheim

