Zeit für einen frischen SEO-Wochenrückblick! Heute mit dabei: Die interne Suchfunktion als Conversion-Treiber, Googles erste Progressive Web App und gleich zwei Probleme, die mit robots.txts zusammenhängen. Seid gespannt und lest Euch rein!
Die interne Suchfunktion – dein Freund und Helfer
Eine übersichtliche Navigationsstruktur ist für SEO essentiell. Sie erleichtert Suchmaschinen das Crawlen und hilft dem Nutzer, sich zu orientieren. Deswegen steckt Ihr alle bestimmt viel Zeit, Geld und Gehirnschmalz in den Aufbau und die fehlerfreie Umsetzung der Navigation Eurer Websites. Dazu gehören aber nicht nur die Navigationsleiste, Menüs, Filter und die Platzierung interner Links, sondern auch die interne Suchfunktion.
Aber warum sollte ich Ressourcen in die interne Suche stecken, wenn meine Website doch schon über eine gut strukturierte Navigation verfügt?
Ein Artikel von HubSpot beantwortete diese Frage in dieser Woche so: Eine gute, interne Suchfunktion sorgt für mehr Conversions.
Wir wollen diese steile Behauptung zum Anlass nehmen, um Eure Aufmerksamkeit auf die Vorteile einer internen Suchfunktion zu lenken. Zudem haben wir Tipps zusammengetragen, wie Ihr diese Vorteile nutzen könnt.
Wer nutzt die interne Suchfunktion?
Interne Suchen führen zu mehr Conversions, weil die Nutzer der internen Suchfunktion einer Website sich stark von Navigationsnutzern unterscheiden. Nutzer der Suchfunktion suchen nach etwas Bestimmten. Sie wissen, was sie wollen. Sie haben sich bereits informiert und sind nun bereit etwas zu kaufen oder herunterzuladen. Navigationsnutzer sind dagegen meistens eher noch auf der Suche nach allgemeinen Informationen.
Was kann man von internen Suchanfragen lernen?
Zunächst könnt Ihr anhand der Nutzung der internen Suchfunktion Probleme in der Navigation Eurer Website erkennen. Denn die Suchfunktion wird oft von mobilen Endgeräten aus genutzt, wenn die Navigation nicht für mobile Darstellungen optimiert worden ist. Zudem wird die Suchfunktion gerne verwendet, wenn man irgendwo auf einer Website stecken bleibt. Dies ist ebenfalls ein Hinweis auf Probleme hinsichtlich der Navigation. Mehr dazu findet Ihr in einem Blogpost von Cludo.
Darüber hinaus ist die interne Suchfunktion ein tolles Tool, um DSGVO-konforme Daten über Eure Nutzer zu sammeln. Ihr wollt wissen, was Nutzer wirklich auf Eurer Website finden wollen und wie sich Eure Nutzer bei Suchanfragen sprachlich ausdrücken? Das könnte Euch nämlich dabei helfen, neue Keywords für zukünftige SEO-Anpassungen zu finden. Oder sucht Ihr nach neuen Themen für Euren Blog oder Social-Media-Posts? Oder wollt Ihr herausfinden, welche Informationen auf Eurer Website offenbar schlecht oder gar nicht zu finden sind? Dann analysiert Eure internen Suchanfragen!
Zusammenfassend hat eine interne Suchfunktion also drei große Vorteile:
- Sie kommt conversionbereiten Nutzern entgegen.
- Sie kann Probleme und Potenziale der allgemeinen Navigation einer Website aufdecken.
- Sie liefert Euch Daten über die Interessen und das Suchverhalten Eurer Nutzer.
Wenn Ihr Tipps zur Umsetzung einer internen Suche braucht, können wir Euch folgenden Artikel von Yoast empfehlen.
Eine super Anleitung zum Tracken interner Suchanfragen mit Google Analytics findet Ihr wiederum in diesem Artikel von Lisa Hauer (lunapark).
Google News
- Googles erste Progressive Web App: Google Photos kann jetzt als Progressive Web App auf Smartphones und auf Desktop-PCs installiert werden. PWAs sind im Prinzip Websites, die jedoch in ihrem eigenen Browser geöffnet und zudem in das Betriebssystem des lokalen Geräts integriert werden können. Dadurch können sie zum Beispiel auch offline verwendet oder mit Hilfe von App Managern verwaltet werden. Weitere Informationen zu PWAs und wie man sie aktiviert, findet Ihr im GoogleWatchBlog.
- Google, Wikipedia und ein „Fake News“-Problem: Ende Mai listete der Knowledge Graph von Google als Ideologie der Republikanischen Partei Kaliforniens unter anderem „Nazism“, also Nationalsozialismus, auf. Dies war natürlich eine Fehlinformation, die Google nach sechs Tagen korrigiert hat. Google entschuldigte sich für den Vorfall und erklärte über Twitter, dass eine anonyme Person den Wikipedia-Artikel zu der Partei abgeändert und Google die Information wiederum von Wikipedia übernommen hatte. Mehr dazu findet Ihr auf SearchEngineLand.
- Robots.txt verhindert das Crawlen, nicht unbedingt die Indexierung: Wie SearchEngineJournal diese Woche berichtete, stellte John Mueller im „Webmaster Central hangout“ eine wichtige Sache bezüglich der Nutzung von robots.txt und dem Noindex-Meta-Tag klar: Wird eine Unterseite einer Website durch die robots.txt vom Crawling ausgeschlossen, kann es trotzdem passieren, dass sie indexiert wird. Dieser Fall kann auftreten, wenn die Unterseite direkt verlinkt wird. In diesem Fall würde der Crawler sie als leere Seite in den Index aufnehmen. Um eine bestimmte Unterseite ganz von der Indexierung auszuschließen, sei deshalb die Verwendung des Noindex-Meta-Tags zu empfehlen.
- Bug beim SEO-Plugin Yoast: In der Version 7.0 ist beim Plugin Yoast ein Bug aufgetreten. Wenn Ihr bei WordPress Mediendateien hochladet, werden für diese eigenständige URLs angelegt. Beim Plugin von Yoast gibt es die Option, dass diese URLs auf die eigentliche URL, auf die das Bild oder Video veröffentlich worden ist, umgeleitet werden. Diese Option wurde von dem Bug überschrieben und nicht mehr ausgeführt. Inzwischen gibt es dafür eine Handlungsempfehlung und einen Fix von Yoast. Dieser Bug wurde auch mit möglichen Rankingverlusten im März in Verbindung gebracht. Dieser Zusammenhang ist von Google jedoch klar dementiert worden. Einen Überblick über den gesamten Diskurs findet Ihr bei SearchEngineRoundtable.
Vermischtes
- Verschiedene robots.txts behindern die Arbeit von Backlinkprofil-Tools: Nicht nur Suchmaschinen crawlen das Internet. Auch Unternehmen wie MOZ, Majestic und Ahrefs schicken täglich ihre Crawler aus, um ihren Kunden Backlinkprofil-Tools anzubieten, die im Idealfall Backlinkprofile von Websites genauso einschätzen können, wie Suchmaschinen dies tun. Einer Studie von MOZ zufolge werden jedoch die Tool Crawler oft von robots.txts verschiedener Websites geblockt. Der Google-Bot wird im Gegensatz dazu viel öfter zugelassen. Dies habe nicht zu unterschätzende Auswirkungen auf die Datenqualität der verschiedenen Backlinkprofil-Tools.
- Instagram veröffentlicht Ranking-Signale seines Feed-Algorithmus‘: Diese drei Ranking-Signale sind maßgeblich für die Zusammenstellung Eures Instagram Feeds: 1. Euer Interesse, gemessen an vergangenen Verhalten. 2. Aktualität des Beitrags. 3. Die Beziehung zum Ersteller des Beitrags, gemessen an Euren vergangenen Interaktionen mit dem Ersteller. Zudem wird Euer Feed davon beeinflusst, wie oft und wie lange Ihr Instagram nutzt. Mehr dazu auf t3n.
- Sistrix bescheinigt Blogs eine schlechte SEO-Performance: Laut Sistrix sind Blog-Artikel bezogen auf SEO keine guten Traffic-Kanäle, da ihre Inhalte sehr selten auf der ersten Suchergebnisseite von Google ranken. Gründe dafür sieht der Tool-Anbieter darin, dass Blog-Posts oft spitze Themen ohne klaren Fokus und mit wenig Suchvolumen behandeln, schnell inaktuell werden und wenig gepflegt werden. Deswegen seien sie eher zur Push-Kommunikation (News, PR-Mitteilungen etc.) und nicht zur Beantwortung von Suchanfragen geeignet.
- Technische SEO-Tipps für Eure mobilen Websites: Wegen des Mobile-First Indexes werden immer mehr Websites vom mobilen Crawler und nicht mehr vom Desktop-Bot besucht und indexiert. Habt Ihr aus technischer SEO-Sicht auf Euren Websites schon alles getan, um dem Mobile-Bot entgegen zu kommen? Wenn Ihr Euch da unsicher seid, dann können wir Euch die Technical SEO Checklist von SearchEngineLand empfehlen, die diese Woche erschienen ist.
Ein schönes Wochenende wünschen Euch
Martin und die SEO-Trainees