SEO

SEOkomm 2021 in Salzburg

24.11.2021
von
Sebastian Schulze

Highlights von der wichtigsten SEO-Konferenz des Jahres

Vergangenen Freitag war es wieder soweit und die wohl bekannteste Fachkonferenz für Suchmaschinenoptimierung, die SEOkomm in Salzburg, öffnete ihre Türen für die Besucher. Bereits am Vortag fand die Schwesterkonferenz OMX (Online Marketing Konferenz) in der Brandboxx statt und läutete so die OXD (Online Expert Days, OMX & SEOkomm) ein. Das emotionale Highlight gab es ebenfalls bereits am Vortag, als der branchenweit bekannte SEO-Experte Prof. Dr. Mario Fischer, seiner Partnerin auf der Konferenzbühne einen Heiratsantrag machte. So viel sei verraten, der Antrag konvertierte ;) Was es sonst noch an Highlights gab hat unser SEO Experte Sebastian Schulze für euch zusammengefasst.

  • Screaming Frog für Fortgeschrittene: Tipps & Anwendungsfälle für die Praxis
  • Core Vital Speed Performance Score CRUX Lab-Field Experience Data – Light- oder Darkhouse?
  • Wie Google funktionieren könnte: Was ich aus 20h Gesprächen von John, Martin und Gary, gelernt habe.
  • So hast du das noch nie gesehen: Interne Verlinkungsanalyse like a Pro
  • Eröffnet wurde die SEOkomm vom Verdure-CEO und Moderator der Mainstage, Tobi Fox aus Stuttgart, der in seiner Eröffnungsrede nicht vergaß die Mühen des Organisatoren-Pärchens, Uschi und Oliver Hauser, zu schildern, die bis zuletzt um die Ausrichtungsgenehmigung bangen mussten. Grund sind die in Österreich und insbesondere in Salzburg hohen Corona-Zahlen. Salzburg verzeichnet derzeit mit einer Inzidenz von über 1.700 den europaweit höchsten Wert. Die österreichische Bundesregierung unter Kanzler Schallenberg beschloss daher kurz vor Beginn der Konferenz einen landesweiten Lockdown ab Montag, den 22. November. Bereits Tage vorher wurden die Maßnahmen verstärkt, weswegen die OXD nur unter 2G-Regeln stattfinden durften. Aufgrund der Situation wurden in diesem Jahr ohnehin nur 500 Tickets verkauft und die Möglichkeit eines Live-Stream-Angebots eingerichtet. Auch musste die obligatorische Aftershow-Party entfallen. Dennoch war die Erleichterung spürbar, die Konferenz, zumindest in abgespeckter Form, veranstalten zu können. Hierzu passte auch die außergewöhnliche Einstimmung durch den Rapsong „High auf Page Speed“, durch Björn Darko, den Host des bekannten Podcasts „SEOPRESSO“.

    Von Stephan Czysch:

    Screaming Frog für Fortgeschrittene: Tipps & Anwendungsfälle für die Praxis

    Das erste Highlight des Tages fand auf der Mainstage statt.  Der bekannte Fachbuchautor Stephan Czysch, der kürzlich sein neuestes Werk „Local SEO verständlich erklärt“ veröffentlichte, befasste sich in seinem Vortrag mit den häufig ungenutzten Funktionen der allseits beliebten Crawling-Software Screaming Frog und gab viele hilfreiche Tipps & Tricks, wie man noch mehr aus dem Tool herausholen kann. Unter anderem schilderte er, wie man durch die Auswahl „Configuration → User Agent → include/exclude“ vor dem Crawl-Vorgang, diesen auf bestimmte Elemente beschränken könne und so nur die Informationen erhält, die man tatsächlich benötigt. Ebenso könne man unter „Configuration → Custom → Extraction“, Informationen filtern, z. B. wenn man herausfinden möchte welche Marke oder Farbe eines Produkt auf Kategorieseiten wie oft vorkommt oder welche Seiten ein Tracking-Pixel inkludiert haben und bei wo dieses noch fehle. Auch die Funktion zum Vergleich verschiedener Crawls, bspw. Mobile vs. Desktop, Test- vs. Live-Umgebung oder früherer vs. aktueller Crawl würde häufig nicht genutzt, biete aber eine Reihe von nützlichen Informationen. Doch auch im Zuge von Relaunches kann „der Frosch“ einem nützliche Dienste leisten, z.B. indem man via Bulk Export → Web → All sources, ganze Webseiten exportieren und später Veränderungen bemerken kann. Czysch stellte auch eine Reihe weiterer nützlicher Features vor, so beinhaltet der Screaming Frog eine Rechtschreibprüfung, eine Möglichkeit zur Verknüpfung mit Google Data Studio zur Reporterstellung und eine Funktion Crawls zu schedulen.


    Fazit: Insgesamt sicher nichts für Einsteiger aber ein Hands-on-Vortrag für SEO-Feinschmecker, der viele Anstöße gibt, wie man sich die tägliche Arbeit effizienter und leichter machen kann.

    Bewertung: ★★★★☆

    Von Prof. Dr. Mario Fischer:

    Core Vital Speed Performance Score CRUX Lab-Field Experience Data – Light- oder Darkhouse?

    Wow, was für ein Titel! Wer aber die Vorträge von Prof. Dr. Mario Fischer kennt, weiß hier ballt sich Expertise mit humoristischen Einlagen auf höchstem SEO-Niveau und so viel sei hier schon verraten, das war auch in diesem Beitrag wieder der Fall. Der frisch Verlobte beleuchtete das SEO-Trend-Thema des Jahres, die Core Web Vitals, auch bekannt als Page Experience Update und ging besonders darauf ein, welche KPIs wirklich zählen. Dass dieses Thema auch in weiten Teilen ein Hype ist, stellt er gleich zu Beginn heraus. Die Ladegeschwindigkeit sei aus Rankinggesichtspunkten eher als Tie Breaker, denn als Knall im All zu begreifen. Bei qualitativ gleichwertigen Resultaten, könne es den Ausschlag geben, welchen Platz die Seite in der Suche belegt. Eine mangelnde inhaltliche Qualität gleicht jedoch auch die schnellste Seite nicht aus. Er stellt auch klar, dass die Grundlage der Berechnung der Core Web Vitals keine Labordaten seien, wie sie durch verschiedene Tools berechnet werden, sondern die durch den Chrome-Browser realer Nutzer übermittelten Felddaten. Diese gewichtet Google allerdings erst ab einer statistisch relevanten Größe. Eine wenig besuchte Seite, könne überhaupt nicht über genügend Felddaten verfügen, um einen Score zu erhalten. Auf die einzelnen Metriken der Core Web Vitals ging er ebenfalls ein, so stellte er klar, dass der LCP (Largest Contentful Paint), also die Zeitspanne, die vergeht, bis die flächenmäßig größte Ressource der Seite geladen hat, auch Inhalte umfasst, die beim initialen Page Load eingeklappt, also nicht direkt sichtbar, sind. Der FID (First Input Delay), also die Zeit die vergeht, bis ein Nutzer mit der Seite interagieren kann, ist durch Tools nicht wirklich berechenbar, da ja niemand voraussehen kann, welche die erste Interaktion des Nutzer sei. Dies könne ein Klick aber auch die Verwendung der internen Suche sein. In jedem Fall zählt Scrollen jedoch nicht als Interaktion. Bei der Berechnung des CLS (Cumulative Layout Shift), werden die einzelnen Verschiebungen auf einer Seite zeitlich addiert. Gerade Newsseiten, auf denen oftmals mehrere Banner Ads eingebunden sind, die die Textbestandteile während der Nutzung mehrfach verschieben, sollten feste Dimensionen nutzen, um die Textblöcke zu fixieren. So können die Banner wechseln, ohne dass die Seite instabil ist. Auch nachladende Schriftarten können zu Verschiebungen führen. Die häufige Fehlannahme den Score in Lighthouse als Fokuswert zu sehen, stellte er ebenfalls klar. Dieser sei per se unerheblich, da lediglich die drei Vitals Rankingfaktoren sind.


    Fazit: Mario Fischer präsentierte gewohnt locker und kompetent ein spannendes Thema und löste auch bei erfahrenen Hasen den ein oder anderen Gedankenanstoß aus. Auf humorvolle Art offenbarte er auch die ein oder andere Unstimmigkeit in der Dokumentation von Google selbst, die bisher anscheinend niemandem aufgefallen ist.

    Bewertung: ★★★★★

    Von Johan von Hülsen:

    Wie Google funktionieren könnte: Was ich aus 20h Gesprächen von John, Martin und Gary, gelernt habe.

    Ein Vortrag mit einem Titel, der zwei Interpunktionsfehler enthält und im Grunde nur eine Zusammenfassung eines gehörten Podcasts ist. Klingt nach wenig, ist es aber nicht! Johan von Hülsen legte zum Abschluss des Vormittags noch einmal ein wahres Highlight hin. Er präsentierte den Zuhörern das aggregierte Wissen aus 20 Stunden „Search Off the Record“, dem seit eineinhalb Jahren laufenden Podcast der Google-Größen John Müller, Martin Splitt und Gary Illyes. Bei der Darlegung hangelte er sich am Funktionsablauf von Google entlang und startete folglich mit dem Crawling. Zunächst ging er auf die Bedeutung des Schedulers ein, der die Googlebots steuert und festlegt, wann und in welcher Reihenfolge diese das Web erfassen (Discovery Crawls vs. Refresh Crawls). Das Aussenden von 429- und 5xx-Statuscodes seien laut von Hülsen sogenannte Backoff-Signale, also Signale die den Googlebot dazu veranlassen eine besuchte Seite direkt zu verlassen. Dies könne zu unentdeckten URLs und sinkenden Refresh Rates führen. Mit dem Mythos, dass mangelndes Crawl Budget erst ab 1 Million URLs zu einem Problem wird, räumte er ebenfalls auf, indem er den Zuhörern mitteilte, dass diese Zahl aus PR-Gründen veröffentlicht wurde und keine exakte Nummer genannt werden könne. Die gecrawlten Inhalte werden im Anschluss durch Caffeine für den Index aufbereitet. Zur Interpretation von PDFs wird dabei Adobe-Software genutzt, hat Adobe also Probleme PDFs zu interpretieren, wird Google diese auch haben. Auch eine technisch korrekte Verwendung des HTML-Quellcodes in Webseiten ist wichtig. Dies verdeutlichte er daran, dass bei einem im <head>-Bereich fälschlicherweise inkludierten Tag, bspw. eines <p>-Elements, das Crawling dieses Bereiches abgebrochen wird und alle nachfolgenden Informationen so nie Beachtung finden. Ebenso stellte er klar, dass Links in Dokumenten, die auf „noindex“ gestellt sind, nicht gewertet werden.

    Der allgemeine Rendering-Prozess bei Google (WRS – Web Rendering Service) verlaufe laut von Hülsen zweistufig. Zunächst wird das HTML einer Seite analysiert, bevor die gerenderte Version (mit Bildern, etc.) erneut untersucht wird. Der zunehmenden Einsatz von Machine Learning führe dabei hingegen ab und an zu ungewollten Fehlern. So habe der Google-Collapsor gelernt 404-Seiten an typischen Merkmalen zu erkennen. Blogbeiträge wie „die schönsten 404-Seiten“ beinhalten diese Merkmale jedoch auch und würden so oftmals fälschlicherweise als Soft-404 gewertet. Seitenbetreiber sollte daher hin und wieder prüfen, ob eine Fehlinterpretation seitens Google vorliege.

    Das anschließende Storing bei Google ist nicht, wie viele glauben, nach Dokumenten oder Keywords organisiert, sondern nach Tokens. Ein Token stellt dabei ein Thema mit vielen Keywords dar. Durch das Query Parsing werden Suchanfragen um Stopwords bereinigt und um Synonyme ergänzt und so den jeweiligen Tokens zugeordnet. Am Ende des Prozesses steht das Ranking. Hier findet zunächst eine Sortierung nach Qualitätssignalen statt (Page Rank, Thematik, etc.) bevor zwischen 1.000 und 10.000 Ergebnisse ins Re-Ranking gehen. Hierbei wird der initiale Score des Rankings durch Tie Breaker (bspw. Die Core Web Vitals, https, etc.) multipliziert. Dies gilt auch für Googles eigene Inhalte, wie Maps oder Verticals, z.B. Bilder und Videos. Diese Elemente hätten lediglich die Besonderheit, dass sie nur in den Top-3-Ergebnissen angezeigt werden. Erreichen sie keinen ausreichenden Score fallen sie demnach gänzlich weg.


    Fazit: Direkt vor der Mittagspause nochmal ein wahrer Leckerbissen, der eingefleischten SEOs das Herz aufgehen lässt. Chapeau Herr von Hülsen!

    Bewertung: ★★★★★

    Von Johan von Hülsen:

    So hast du das noch nie gesehen: Interne Verlinkungsanalyse like a Pro

    Und auch das letzte Highlight des Tages kam von Johan von Hülsen, der im letzten Vortrag der diesjährigen SEOkomm, auf der Mainstage, über ein bekanntes aber wenig genutztes Mittel zur Lenkung des Crawlings, der Nutzerführung und der Priorisierung der eigenen URLs referierte, der internen Linkanalyse. Zunächst stellte er klar, welche Elemente Google überhaupt beobachtet, wenn es um interne Links geht. Hierzu zählen zunächst die Indexierbarkeit der Seite, der den Link umgebende Text, die Menge an Links auf der einzelnen URL, die Position des Links im Dokument, sowie die Anchortexte und die Erreichbarkeit. Auch anzumerken ist, dass nur Links zu indexierbaren Seiten relevant sind. Auf die Frage, welche Links, sprich URLs einer Seite, Google überhaupt als relevant erachtet, hat er eine simple Antwort. Die Seiten, die im Google-Index gelistet sind. Eine Abfrage der eigenen Seite in den Suchergebnissen (mittels Selektor site:URL), ergibt, welche Seiten die Suchmaschine indexiert hat und auch deren Wichtigkeit (Reihenfolge der Ergebnisse). Die Logik nach der Google dabei vorgeht, ist das Reasonable Surfer Model, welches ermittelt, wie wahrscheinlich es ist, dass ein Durchschnittsnutzer einen Link auch anklicken würde. Demnach zählen Links im Fließtext mehr als Links in Boilerplates, wie der Navigation oder dem Footer. Als Goody für die SEOkomm-Teilnehmer stellt er auch ein Sheet zur Verfügung, mit dessen Hilfe man den Page Rank der eigenen URLs errechnen kann. Außerdem betont er, dass Anchortexte auf der eigenen Seite nicht untereinander in Konkurrenz stehen sollten, indem mehrere URLs identisch verlinkt werden. Ebenso wichtig sei die Verwandtschaft des Anchors und der H1 der verlinkten Seite. Als Tipp an alle Webmaster, die ihre Informationshierarchie überprüfen möchten empfiehlt er in der mobilen Ansicht der eignen Seite eine URL ohne Nutzung der Navigation und Paginierungen zu erreichen. Funktioniere dies nicht oder nur schwer, ist die Architektur zu hinterfragen.


    Fazit: Wahres Hands-on-SEO mit Kompetenz und anschaulichem Sheet zum Nachmachen. Zweiter Vortrag am Tag und zweites Highlight. Johan von Hülsen ist mein persönlicher Star der SEOkomm 2021 und anhand der Reaktion im Saal, habe ich diese Meinung wohl nicht exklusiv.        

    Bewertung: ★★★★★

    Fazit zur SEOkomm 2021

    Die vorgestellten Vorträge waren natürlich nur unsere persönlichen Highlights, darüber hinaus gab es eine ganze Reihe weiterer Speaker auf drei parallelen Bühnen zu sehen, die Themen über die gesamte SEO-Bandbreite präsentierten. Insgesamt war die SEOkomm in diesem Jahr klar geprägt durch die Pandemie, das obligatorische Networking fiel weitestgehend aus und auch die vielen leeren Plätze in den Sälen trübten die Stimmung. Dies gilt nicht nur für das Konferenzpublikum, sondern auch für die gesamte Stadt. In den zahlreichen Geschäften, Cafés und Restaurants, kam man im Hinblick auf den anstehenden Lockdown, nicht umhin, eine gewisse Endzeitstimmung zu spüren.

    Fachlich bot die SEOkomm teils unglaublich starke Darbietungen, wenig überraschend von den großen Namen der Branche, allen voran Mario Fischer und Johan von Hülsen. Allerdings waren auch zahlreiche Vorträge ohne wirklichen Erkenntnisgewinn im Lineup zu finden. Dennoch muss man vor dem Hintergrund der Gesamtlage froh sein, dass die SEOkomm überhaupt stattfinden konnte und sich eine große Anzahl von Speakern, durch die desaströsen Zahlen in Salzburg, nicht hat abschrecken lassen. Es bleibt die Hoffnung, dass im kommenden Jahr die SEOkomm tatsächlich in der Post-Corona-Ära stattfinden kann und die Einschränkungen aus 2021 nicht mehr als bloße Erinnerung sein werden.

    Jetzt Kontakt aufnehmen