SEO-Neuigkeiten und Veränderungen: Das geschah bereits in 2022

2021 war ein aufregendes Jahr für SEOs und E-Commerce-Händler zugleich: Insbesondere aufgrund der Konsumverlagerung ins Internet, bedingt durch vollständige oder teilweise Lockdowns des Einzelhandels während der Corona-Pandemie. Seit dem Jahreswechsel stand aber auch der Google-Algorithmus nicht still – und wird es auch die weiteren neun Monate des Jahres nicht. Was ist bisher passiert?

Nach dem letzten großen Core-Update

Das letzte große Core-Update im letzten Jahr datiert auf den November, seither gab es wieder viele kleinere Anpassungen und dezente Hinweise von Googles SEO-Team. Diese sollen nachfolgend einmal zusammengefasst werden.

Den ersten großen Hinweis, zumindest für einige SEO-Strategien, gab es am 4. März in den Google Search Central SEO Office Hours. John Müller steht bei diesen SEOs rund um den Globus zumindest teilweise Rede und Antwort. Während der Office Hours betonte Müller erneut wie wichtig interne Verlinkungen nicht nur für die Suchmaschinenoptimierung, sondern auch die Usability und Navigation sind. Seine Aussage vom 23. Februar ergänzte er nun im März wie folgt.

 

 

Interne Verlinkungen sind ein Muss – und werden nicht von strukturierten Daten ersetzt

John Müller sagt dazu, dass strukturierte Daten zwar wertvoll und definitiv ein starkes SEO-Instrument darstellen, sie ersetzen aus Sicht des Nutzers aber keine internen Verlinkungen. Das gilt ebenso dann, wenn die strukturierten Daten selbst als Verlinkungen aufgebaut sind. Als konkretes Beispiel nannte er an dieser Stelle insbesondere Hreflang-Verweise, die eher im internationalen Raum bei multilingualen Webseiten genutzt werden, sowie Breadcrumbs.

Müller selbst wiederholte im Zuge dessen seine Aussage aus dem Februar, nämlich auch bei mehrsprachigen Seiten nicht nur ausschließlich auf die Hreflang-Verweise zu vertrauen. Es sei weiterhin empfohlen und aus Sicht der Besucher sogar notwendig, klassische HTML-Links einzusetzen, um die Seite so sinnvoll und leicht navigierbar aufzubauen.

SEOs, die bis dato die Struktur und Strategie der internen Verlinkung zu Gunsten von Breadcrumbs und Co. vernachlässigt haben, sollten diesen Ansatz also noch einmal überdenken.

Die interne Suchfunktion auf der Webseite verbessern

Ende Februar gab es bereits ein “Hangout” mit John Müller, wo er unter anderem über die interne Suchfunktion von Webseiten berichtete. Diese sei seiner Erfahrung nach anfällig für Spam, obwohl die Suche selbst eigentlich viele Vorteile für Besucher verspricht.

Sein konkretes Beispiel bezieht sich auf einen Online-Shop, wo die Kategorieseiten zugleich als Suchergebnisseiten eingeblendet wurden. Das wiederum führte dazu, dass sich beide Unterseiten der Webseite sehr ähnlich waren. Webmaster und SEOs gleichermaßen sollten also Vorsicht walten lassen, wenn sie wirklich konkret Kategorien in die interne Suche integrieren wollen.

Ein anderes Beispiel bezieht sich auf den URL-Spam, der durch die “Site Search”, wie die Funktion genannt wird, entsteht. Da der Besucher der Webseite nach jedem beliebigen Begriff und jeder denkbaren Kombination suchen kann, können sowohl in Theorie als auch Praxis unendlich viele Site Search URLs entstehen. Um auch hier Spam zu vermeiden, der negativ auf das Ranking einer Seite durchschlagen könnte, empfiehlt Müller konkret diese Suchergebnisseiten mit dem NoIndex-Tag zu versehen. Alternativ ist eine Sperrung über die robots.txt denkbar, der Effekt wäre identisch.

Müller empfiehlt außerdem nicht der Verführung zu erliegen, über die Suchergebnisseiten Content anzuzeigen, den die eigentliche Webseite gar nicht hat. Wenn also beispielsweise ein Besucher nach einem bestimmten Produkt mit konkretem Marken- beziehungsweise Eigennamen sucht und der Händler dieses nicht führt, sollte auch keine unpassende Suchergebnisseite dazu geführt werden. Realisieren lässt sich das laut Müller mit einer Whitelist für die Suche, die zugleich hilfreich dabei ist, den anderenfalls anfallenden URL-Spam zu vermeiden.

 

 

Erklärungen zu Schwankungen bei den Rankings

Wenn die eigene Seite zu bestimmten Suchbegriffen häufiger sprunghaft mehrere Plätze gewinnt oder direkt wenige Tage später verliert, ist das laut Müller ein Indiz für die “Unsicherheit” des Google-Algorithmus. Besonders häufig treten solche Schwankungen auf, wenn Googles Algorithmus nicht in der Lage ist, die Webseite einer bestimmten Suchanfrage beziehungsweise einem “Search Intent”, wie er es selbst ausdrückt, zuzuordnen.

Außerdem könnte eine Webseite generell zwar sehr stark aufgebaut sein, aber einige wenige, dafür gravierende Fehler und Makel enthalten, die den Algorithmus in der Folge verunsichern. Müller bringt als Beispiel Webseiten hervor, die selbst zwar nicht als Spam einzuordnen wären, dafür sich aber aus irgendeinem Grund in der inhaltlichen und relativen Nähe von Spam-Webseiten befinden. Bei sich häufiger sprunghaft verändernden Rankings wäre es also empfehlenswert, sich das Umfeld der eigenen Webseite einmal genauer anzuschauen und notfalls Vorkehrungen zu treffen, um die eigene Webseite von solchen “schlechten Seiten” abzugrenzen.

Page Experience: Schall und Rauch

Googles John Müller sah sich zudem “genötigt” noch einmal die Bedeutung der Page Experience hervorzuheben – oder besser noch: Klarzustellen, warum diese von SEOs immer noch überbewertet wird. Zwar gab es erst zum Monatswechsel zwischen Februar und März ein Page Experience Update, großartige Veränderungen dadurch sind laut Müller aber nicht zu erwarten. Er verdeutlichte, dass sich Zugewinne und Verschlechterungen auf wenige Positionen beschränken. Eine Webseite wird wegen einer niedrigeren/schlechteren Page Experience aber nicht plötzlich von Seite 1 auf Seite 5 abstürzen.