Dies ist eine Aufnahme des Google Webmaster Sprechstunden-Hangouts vom 5. September, 2019. In diesen Hangouts besprechen wir alles Google/Webmaster-bezogene, z.B. Google’s Crawling & Indexing, Duplicate Content, Sitemaps, Search Console, Mehrsprachige & internationale Websites, usw.

 

Frage:

Ich habe vor einiger Zeit meine Seite für Lernzettel erstellt und nutze die Search Console und Google Analytics, allerdings werden die Unterseiten weder geindext noch gecrawlt obwohl sie sich in der an Google gesendeten Sitemap befinden. Alle Live und Speed-Tests laufen ohne Probleme ab. Meta Informationen sind vorhanden, auch ein Canonical Link ist angegeben. Was kann man tun?

Antwort:

In der Sitemap habe ich alle URLs angeschaut und gesehen, dass alle URLs mit dem Pfund-Zeichen dazwischen arbeiten. Diese JavaScript-Seiten werden mit diesen Pfund-Zeichen abgerufen. Allerdings indexieren wir solche Seiten nicht separat, d.h. es müsste eine andere URL-Struktur verwendet werden. Es gibt hierzu 2 Varianten:

  • Mit dem Hashbang System: Nummernzeichen + Ausrufezeichen dazu

Ist suboptimal, da wir eigentlich nicht mehr mit dem System arbeiten. Dies wäre jedoch eine relativ leichte Anpassung für die Webseite. Zumindest im Moment.

  • Mit normalen Pfad und URL Struktur arbeiten (ohne Nummernzeichen). Meistens kann man bei JavaScript Webseiten umstellen zwischen den beiden URL Strukturen.

Es werden in der Search Console keine Fehler angezeigt, weil wir die vordere URL indexieren und das aus unserer Sicht kein Fehler ist. Wir merken nicht, dass du mit den Anker URLs etwas anderes meinst. Daher im JavaScript Framework nachsehen, ob man das umstellen kann, wenn das nicht möglich ist, dann am besten mit dem Entwickler besprechen.

Frage: Wir haben einen Fashion Online Shop und verwenden jeweils eigenständige Domains pro Land. Unsere Sitemaps sind sehr umfangreich, weshalb wir einen Sitemap Index verwenden mit mehreren darunterliegenden Sitemaps. Wenn ich in der Search Console die DE.Seiten ansehe bekomme ich eine umfangreiche Auflistung des Indexierungsstatus sowie einen Link zum Index-Coverage jeweils pro Sitemap. Wir bekommen diese Auflistung für andere Domains nicht angezeigt obwohl diese auch schon seit längerer Zeit aktiv sind und die Sitemapstruktur gleich ist. Zudem wird uns bsp für AT als Status access angezeigt während discovered URLs gleich null ist.

Antwort:

Es gibt 2 mögliche Faktoren:

  • Der Indexierungsstatus in der Search Console wird nicht mehr weitergeführt, d.h. die Zahlen entsprechen denen von früher. Es ist nur noch in der API vorhanden. Diese Daten sind daher nicht aussagekräftig.
  • a. in AT; DE, CH werden oft gleiche Inhalte verwendet. In diesen Fällen indexieren wir auch nur eine Version davon. Mit hreflang – das ist eine Verbindung zwischen verschiedenen Ländern und Sprachversionen – kann man angeben welche URL für welche Länder ausgegeben werden soll. Indexiert wird jedoch jeweils nur 1 Variante. D.h. in der Search Console sieht man 1 indexierte Variante, die anderen Duplikate zeigen eine geringe oder keine Index Coverage auf. Aus unserer Sicht ist das nicht problematisch, denn wir tauschen die URLs trotzdem aus in den Suchergebnissen. Es ist nur für die Verwaltung der Statistik in der Search Console nicht gut, d.h. diesen Umstand muss man bei der Statistik berücksichtigen. Die Indexierung kann variieren, d.h. einzelne Seiten sind indexiert für AT, andere für DE, etc. es wird also nicht eine ganze Domain als 1 Variante indexiert. Wenn man also den Indexierungsstatus anschauen möchte, müsste man den Indexierungsstatus der einzelnen Sprach und Länderversionen zusammenzählen und so gesamt anschauen. Mit .com und Unterverzeichnissen kann man mit der Domain Property arbeiten und sieht daher das volle Bild.

Frage: Wir haben eine Webseite, die für Desktop und mobile existiert. Über eine php Weiche werden Nutzer automatisch auf die jeweilige relevante Adresse umgeleitet. Es taucht jedoch nur noch die mobile Adresse in der Suche auf. Auch im Chache wird die Seite als www Variante ausgegeben. Andere Seiten mit www und mpunkt scheinen diese Probleme nicht zu haben. Ist das eine Auswirkung von mobile first oder kommt der Google Bot mit unseren Weichen nicht ganz klar?

Antwort:

Wichtig, schauen ob die Verknüpfung zwischen mpunkt und www sauber vorhanden ist, d.h. dass man mit dem rel canonical und dem rel alternate arbeitet, Wichtig ist, dass man von der mpunkt Variante einen Redirect zur Desktop Variante für Desktop Benutzer einrichtet. Wenn alles sauber aufgesetzt ist, ist es eigentlich egal ob die mpunkt Variante in den Suchergebnissen erscheint, weil der Benutzer zur richtigen Variante zurückgeleitet wird.

Eine separate Adresse für die mobile Version ist von Google nicht empfohlen (obwohl wir es verstehen und nutzen), es ist besser, mit responsive Design oder mit dynamic serving zu arbeiten.

Frage:

Wann werden Symbole wie Herz etc. in den Suchergebnissen angezeigt?

Antwort:

Wir wollen sie nur dann zeigen, wenn wir denken, dass sie relevant sind. Sterne können zb ein Review Snippet imitieren, das versuchen wir dann auszublenden. Ich würde es einfach mal ausprobieren, ob die Symbole ausgespielt werden.

Frage:

Ich arbeite für eine Online-Lernplattform im deutschsprachigen Raum, d.h wir haben teilweise gleiche Inhalte aber auf separaten Domains: .ch, .at. und .com. Seit ca 1 Woche wurde ein Großteil unserer .ch Domains laut Search Console vom Index ausgeschlossen, weil stattdessen die .com Domain als kanonische URL ausgewählt wurde. Hreflang haben wir korrekt implementiert und auch keine Veränderung hier vorgenommen in den letzten Tagen. Da mehr als 6000 Seiten davon betroffen sind, wirkt sich das deutlich auf unsere Rankings und Sichtbarkeit aus. Was können wir tun?

Antwort:

Ich denke, es geht hier genau wie beim anderen Beispiel darum, dass wir, wenn die Inhalte gleich sind, wir nur 1 Seite indexieren und die anderen Seiten als Duplikate ansehen. Es sollte eigentlich keine Auswirkungen auf die Rankings haben, da die richtigen Seiten (wenn hreflang richtig implementiert sind) trotzdem ausgespielt werden. Der Stand der Indexierung kann sich verändern. So indexieren wir zb am Anfang beide Seiten, kommen dann aber drauf, dass es sich hier um idente Inhalte handelt und wählen dann einen Canonical aus.

Frage:

In der Search Console finde ich immer wieder Hinweise zu Problemen bez Nutzerfreundlichkeit auf Mobilgeräten. Wieso tauchen diese Fehler neu auf, obwohl das letzte Crawling der Seite schon lange her ist? Bei einer manuellen Prüfung wird die Seite als fehlerfrei identifiziert. Wir vermuten, dass der Bot nicht alle Ressourcen laden kann. Stimmt das?

Antwort:

Das kann sein. Wir müssen zum Erkennen der Mobilfreundlichkeit die Seite rendern. Wenn gewisse Ressourcen zu diesem Zeitpunkt nicht verfügbar sind kann es sein, dass wir dann denken, dass die Seite doch nicht mobilfreundlich ist. Solch eine Fluktuation ist normal, v.a. bei größeren Seiten kann es sein, dass gewisse Ressourcen nicht geladen werden können. Ich würde diese Seiten manuell prüfen und mir keine großen Gedanken machen, wenn nur wenige Fehler im Verhältnis zur Webseitengröße angegeben werden.

Frage:

Von Google gab es ja den Ratschlag, Canonical tag und noindex nicht zu mixen, da das inkonsistente Signale sind. Kann so ein Mix Schuld an Ranking bzw. Trafficverlust sein selbst wenn die betreffende Website diese Einstellungen bereits über einen sehr langen Zeitraum hat und den Verlust erst jetzt spürt?

Antwort:

Das glaube ich nicht, dies sollte keinen Einfluss auf das Ranking haben.

Das Problem damals war, dass man mit dem Canonical Tag ja sagt, dass 2 Seiten ident sind, mit dem noindex hingegen sagt man, dass die Seite XY gar nicht indexiert werden soll.

Hat eine Seite beide Attribute kann es sein, dass unser Algorithmus sagt, dass beide Seiten gleich sind aufgrund des canonicals und eine Seite einen noindex hat, werden beide Seiten nicht indexiert, da sie ja gleich sind. Das hat aber keinen Einfluss auf das Ranking. Heute ist das sowieso kein Problem mehr.

Wenn ihr einen Ranking- oder Trafficverlust sieht, ist das entweder auf eurer Seite, sodass wir bei euch etwas gefunden haben was wir anpassen in unserem Ranking oder wir haben unserer Rankingalgorithmen angepasst.

Frage:

Kann es sein, dass sich zwei Bewertungen einmal Type organisation und einmal beim Type product beißen und Google gar keine Bewertungen mehr durch Sterne ausspielt? Es handelt sich tatsächlich um 2 unterschiedliche Bewertungen. Einmal von uns als Anbieter und einmal von einem konkreten Produkt. Kann Google das eventuell nicht trennen?

Antwort:

Wir erwarten, dass die structure data entsprechend dem Hauptelement der Seite ist und nicht, dass man da verschiedene Elemente markiert. D.h. wenn ihr Bewertungen auf dieser Seite habt, dann sollen die entsprechend des Hauptelements auf dieser Seite sein. Bei einer Produktseite wird das wahrscheinlich das Produkt sein. Wenn man eine Seite über eine Firma allgemein hat, dann kann es auch sein, dass man hier eine Bewertung über die Firma allgemein hat, aber das wäre dann nur auf dieser Seite. Ob das der Grund ist, warum gar keine Sterne angezeigt werden, ist schwierig zu sagen, jedenfalls wäre so etwas verwirrend für unsere Systeme, d.h. ich würde die Bewertungen klar trennen.

Frage:

Ich habe in Search Console 7291 gültige Seiten. Nutzerfreundlich sind aber nur rund 2000 Seiten. Wir sind im mobil-first Index. Ist die Differenz von 5000 Seiten nicht nutzerfreundlich oder gibt es andere Probleme mit diesen Seiten? Alle unsere Seiten sind responsive.

Antwort:

Das kommt daher, dass wir für diese Bericht eine Probe nehmen, d.h. einen Teil der Seiten, die wir indexiert haben. D.h. in deinem Fall, haben wir 2000 Seiten getestet und all diese sind nutzerfreundlich. D.h. ich würde mir hier keine Sorgen machen. Wenn du siehst, dass die die getestet werden ok sind ist passt das. Beim Nutzerfreundlichkeit auf Mobilgeräten sind wie gesagt Fluktuationen normal.

Frage:

Ich habe einen Zeitstempel integriert auf meinen Seiten. Wenn ich jetzt eine Zeitabfrage mache mit meiner Domain mit diesem Zeitstempel, zeigt mir Google im Moment 2800 Seiten an. Wenn ich eine Zeitabfrage ohne Zeitstempel mache, dann werden mir so 8000 Seiten angezeigt. Wieso?

Antwort:

Grundsätzlich ist es so, dass bei einer Zeitabfrage die Gesamtheit, die wir zeigen stark variieren kann, das heißt eine Zeitabfrage würde ich nicht als Diagnosemittel oder so etwas anschauen. Da kann es wirklich sein, dass das um Faktor 10 oder Faktor 100 in die falsche Richtung gehen kann. Da würde ich mir wegen dem keine großen Gedanken machen. Das ist einfach optimiert auf Geschwindigkeit und manchmal zeigt es Sachen an, wie die da jetzt bei dir. Ich bin bisschen überrascht, dass die 8000 etwa übereinstimmen, weil normalerweise ist da auch schon ein rechter Unterschied.

Frage: Also bei der normalen zeitabfrage ja und wenn ich diesen Zeitstempel miteinfüge dann stimmt es ungefähr halt mit den Nutzerfreundlichen Seiten überein, deshalb denke ich dass wahrscheinlich für die Leute die nach uns suchen bzw dass nur diese 2800 Seiten angezeigt werden überhaupt und alle anderen sind wegen schlechter Qualität oder so nicht drinnen im Index oder eben nicht angezeigt werden.

Antwort:

Nein das sollte nicht sein. Du kannst es wahrscheinlich kontrollieren indem das du gezielt nach solchen Seiten suchst, die nicht in diesen 2000 sind. Bei 2000 ist es schon ein bisschen schwierig das herauszufinden. Bei einer größeren Website lässt sich das kaum noch machen, aber das sollte nicht der Fall sein. Wenn wir in Search Console beim index Coverage zeigen, dass da diese 8000 indexiert sind dann sind die effektiv auch indexiert. Manchmal ist es eine Frage von je nachdem wie man halt sucht und bei einer Abfrage ist es wirklich so, dass wir das auf Geschwindigkeit optimiert haben und nicht unbedingt auf Vollständigkeit, d.h. die Gesamtzahlen werden einfach geschätzt.

Frage:

IN einem Search Console Konto habe ich mehr als 500 Webseiten und mehr als 100 Nutzer, die zum Teil auch fälschlicherweise Admins sind und in der Zwischenzeit jedoch das Unternehmen verlassen haben. Um aufzuräumen möchte ich nun ein neues Search Console Konto erstellen, wie importiere ich dafür die Daten des alten Accounts? Gibt es eine Möglichkeit die Validierung von 500 Websites zu automatisieren?

Antwort:

Man kann die Validierung von Webseiten auch per API machen. Das mit den 100 Nutzern wird schwieriger sein, dass man die alle wiedereinrichtet. Das könnte man eventuell auch per API machen, wenn man ein eigenes Skript auf der Domain hat. Bez Nutzer allgemein: eine gute Policy wäre, dass man nur Nutzer mit einer Email Adresse zulässt, die die eigene Domain aufweist. Bezüglich Übernahme der Daten: Da muss man eigentlich nichts übernehmen. Wenn ich die Webseite mit einem neuen Konto verifiziere, sind die ganzen Einstellungen weiterhin dort.

Frage:

Wir haben eine starke Landingpage die meines Wissen nach auf index follow stehen muss. Auf dieser Landingpage gibt es Bereiche mit Pagination. Klickt man auf Seite 2 gelangt man zur eigenen URL von diesem Content. Seite 2 und folgende stehen auf noindex follow. Wird der Linkjuice auf die verlinkten Seiten von Seite 2 weitergegeben auch wenn die Seite selbst auf noindex steht?

Antwort:

Wenn eine Seite länger auf noindex steht, gehen wir davon aus, dass die nicht verarbeitet werden soll. Wir crawlen die dann auch immer weniger und werden die Links auch irgendwann nicht mehr verfolgen.

Frage:

Wir überarbeiten unser System gerade in Richtung React mit Server side rendering, damit die Seite für die Nutzer gut indexierbar sein wird, kann es sein, nur das skelleton der Seite auszuliefern und die Inhalte verzögert nachzuladen. Wie wird der Crawler damit umgehen, wenn im ausgelieferten HTML nicht der gesamte Content vorhanden ist?

Antwort:

Prinzipiell ist das ok, solange wir die Seiten rendern können.

2 Dinge sollte man beachten:

  • Den robots meta tag in der skelleton variante der Seite auf index stellen oder nicht definieren, damit wir robots meta tag korrekt vorfinden können
  • Am besten ohne rel canonical tag auf der skelleton Seite arbeiten