Einbruch der Besucherzahlen seit dem 10.10

Hallo,
meine Besucherzahlen haben sich seit über einem Jahr bei ca. 800 ± 100 Besucher/Tag eingepegelt. Am 10.10. begann eine Absenkung und seit dem 11.10. ,also knapp einem Monat, liegen die Besucherzahlen bei 150 ± 50 Besucher/Tag.

Was kann am 10.10. passiert sein, dass nur noch ca. 20 % in Matomo angezeigt werden?

MfG

Wurde irgendetwas an deiner Website und deinem Matomo verändert? Gab es automatische Updates? Gab es Veränderungen am Server? Umstellung auf neuere PHP Version?

Vielleicht wurde deine Website gehackt. Vielleicht wurde sie bei Google gesperrt. Vielleicht ist der Grund auch die Änderung des Google Algorithmus. Es kann vieles sein.

Die ersten Anhaltspunkte würde ich pauschal ausgrenzen. Habe mir mal den ersten schlechten Tag mit 234 Besuchern aufgerufen

Google 91,8 % 134
Bing   3,4 %     5
Yandex   2,1 %     3
DuckDuckGo   1,4 %     2
StartPage   1,4 %     2

und den letzten “guten” Tag mit 807 Besuchern

Google 94,1 % 575
BingBing   2,6 %   16
DuckDuckGo   1,3 %     8
Ecosia   1,1 %     7
Yandex   0,3 %     2
StartPage   0,2 %     1
Qwant   0,2 %     1
Yahoo!   0,2 %     1

Anhand nur dieser beiden Tage = alle Suchmaschinen von 100 % auf ca. 25 % gefallen.

Habe mal bei Google mit dem Hauptschlagwort geschaut. Von ehemals Top10 nun nur noch auf Platz #50 zu finden. Das ist ja sehr bedauerlich, dass Google meiner Seite die Relevanz abgesprochen hat.

Mein Beileid. Kenne das auch mit Google. Es ist schlimm. Ein Algorithmus entscheided über das Schicksal deiner Websites.

Suche mal nach Google Algorithmus Core Update Oktober 2023. Da gibt es ein paar Infos.

Mein Tipp an alle Website-Betreiber: Nur normales SEO machen. Niemals Google SEO machen.

  • valides HTML und CSS (Validator benutzen).
  • keine JavaScript Fehler (Browser Konsole benutzen).
  • HTML 5
<!DOCTYPE html>
<html lang="en">
<head>

<meta charset="utf-8">
<meta name="viewport" content="width=device-width, initial-scale=1.0">
<meta name="robots" content="">
<meta name="author" content="example">
<meta name="copyright" content="example">
<meta name="description" content="example webpage description text …">

<title>Page Title</title>

<style>
/* here CSS */
</style>

<script>
// here JavaScript
</script>

</head>
<body>
<!-- ↓ here HTML ↓ -->

<div>
<h1>Page Title</h1>
<p>
<span>example webpage description text</span>
</p>
</div>

<img src="/example.jpg" alt="example">

<a href="https://www.example.com/" rel="nofollow external">example.com</a>

<script>
// here JavaScript
</script>

<!-- ↑ here HTML ↑ -->
</body>
</html> 

Der Text von <title> und <meta name="description" sollte auch im <body> vorhanden sein.
Bei <img> immer auch den alt-Tag.
Bei <a> mit externem Link immer ein entsprechendes rel-Attribut.

HTML Validator: https://validator.w3.org/

CSS Validator: https://jigsaw.w3.org/css-validator/

Weiteres sind eine non-human readable Sitemap und eine robots.txt.

Dann kommt es nur noch auf den Inhalt / Content an. Double Content mag Google nicht.

Danke für den Hinweis!
Das ist das leidige Problem, wofür opfert man seine Freizeit. Content oder SEO. Theoretisch bräuchte man bei größeren Projekten eine Person, die sich nur ums SEO kümmert. Ehrenamt ist auf der anderen Seite nicht jedermanns Sache.

Hast du für die Domain einen Zugang zu der Google Search Console?
Da findet man gute Ansätze zum SEO.
Wichtig wäre, ob du nur zu einem Keywort oder zu vielen abgestürzt bist

Wenn der Content korrekt eingebunden wird, dann braucht es kein SEO, weil es sich damit von alleine erledigt. Viele lassen sich von SEO Tricks verführen und wollen ihren Content im Ranking nach vorne pushen, werden aber bei Änderung des Algorithmus auch genauso schnell upgerankt.

Eine Website auf Keywords aufbauen ist immer Risiko, teils hohes Risiko. Sowas machen meist nur Leute, die schnell abkasieren wollen und mit jedem Keyword ihr Glück versuchen. Wie oben zu sehen ist fehlt <meta name="keywords" - aus gutem Grund.

Von meiner Seite aus wird davon abgeraten seine Websites nach Google auszurichten. Wie oben erklärt alles korrekt machen und den Rest muss Google selbst machen. Wenn alles korrekt ist, gibt es keinen Grund zum upranken. Dann … kommen ganz andere Abgründe zum Vorschein … Bei einer meiner Websites ist irgendeine Korruption (bei Google) im Gange, seit vielen Jahren. Google weicht den Fragen aus und antwortet immer nur mit automatischen Emails. Wenn es dann auf den Punkt kommt - großes Schweigen.

Sehe ich komplett anders.
SEO bedeutet vielmehr technische Barrieren zu beseitigen, Nutzerzentrierung und Aufbau von Expertise, Trust und Reputation.

1 Like

Habe die Console gerade aufgerufen und bin verwirrt/geschockt. Aktuell sind 12 von 18.367 Seiten nur indiziert. Wobei ich sagen muss, dass am Tag vor dem Einbruch der Besucherzahlen nur 2 Seiten indiziert waren.
Laut der Console gab es in den letzten 28 Tagen nur 3 Klicks über Google auf meine Seite. Laut Matomo waren es gestern am 13.11. allein 40 Weiterleitungen über Google.

Hinweise:
Sehr gut!
In den letzten 90 Tagen wurden keine Probleme erkannt

Keine INP-Probleme erkannt
Deine Website ist bereit für die im März 2024 anstehenden Änderungen.

Laut diesen Hinweisen sieht alles eher gut aus.

Bei dieser Größenordnung muss eine Sitemap her. Jedoch keine human readble, wie sie oft fälschlicherweise angeboten werden. Eine reine XML Sitemap, maschinell geordnet. Besser keinen Generator oder Plug-in verwenden. Selbst was basteln (PHP). Ist nicht schwer. Es gilt nur einiges zu beachten. Wenn du eh schon bei Google Search Konsole angemeldet bist, dann kannst du die Adresse zur Sitemap dort eintragen. Aber Google indexiert auch ohne diese. Und dann braucht es noch eine robots.txt, wenn Seiten vom Indexieren ausgeschlossen werden sollen. Die Sitemap kann auch simpel in die robots.txt eingetragen werden.

https://www.sitemaps.org/protocol.html

lastmod, changefreq und priority kann bei den <urlset> Dateien weggelassen werden. Es genügt die Angabe von <loc> (Bedingung). Bei der <sitemapindex> sollte ein lastmod angegeben werden.

Also die Sitemap kann in mehrere <urlset> Dateien aufgesplittet werden, die alle in der <sitemapindex> aufgelistet werden müssen. Bei 18.000 Pages können diese alle in eine <urlset> Datei, weil das Limit von 50.000 URLs pro Sitemap Datei nicht überschritten wird.

Zu Google: Du würdest dich noch viel mehr ärgern, wenn du all den SEO-Hinweisen und -Anleitungen von Google penibelst nachgekommen wärst. Mach SEO allgemein und für alle und nicht nur für Google. Für allgemeines und gutes bis sehr gutes SEO braucht es kein Google. Google möchte allerdings gerne Abhängigkeiten schaffen.

In deinem Fall will Google schlimmstenfalls darauf hinaus, dass du für’s bessere Listing in den Suchergebnissen bezahlen sollst (Ad Words). Sie wollen “mitverdienen”. Ein schreckliches Thema …

In der Google Search Console gibt es das Menü “Indexierung” - Dort im Untermenü “Seiten” findest du unten eine Aufzählung an Problemen.

Wenn du 20 000 Seiten anbietest und Google nur 2 indexiert, hast du ein technisches oder möglicherweise auch ein inhaltliches Problem. Da hilft dann auch keine Sitemap :wink:

Melbao hat da eine sehr speziellen Blick auf Google. Den kann ich nicht teilen. Google ist ein kommerzielles Unternehmen - ja → aber die picken sich nicht Seiten heraus und werten diese grundlos ab, damit Sie mit Google Ads mehr Geld verdienen. Ich vermute bei dir wie gesagt, eher ein technisches Problem. Wenn Google 20 000 Seiten kennt aber nur 2 oder wenige indexiert, läuft was schief. Zuerst muss man sich also mal anschauen, was man indexieren will. Deswegen der Hinweis oben mit den Problemmeldungen. Wenn da z.B. steht - Gecrawlt aber nicht indexiert, sieht Google keinen Mehrwert an den Seiten. Das muss man analyiseren. Vielleicht gibt es den Inhalt so schon oder eine andere Domain nutze den Inhalt. Auch kann es sein, dass Google gar nicht an die Stelle kommt, den Inhalt einer URL auszulesen. React und PWA sei Dank :wink: Du kannst mir gerne eine PN mit der Webadresse schicken. Ich kann mir das mal 5 Minuten anschauen und dir sagen, woran es wohl hängt

Deswegen meine Hinweise erstmal zu checken ob alles sauber ist. Das ist Grundbedingung. Danach alles weitere. Es ist ja nicht so, dass Google schlecht programmierte Websites ausschließt. Nur, wenn es den Content woanders nochmal besser gibt, …dann Pech gehabt.

Also erstmal auf der eigenen Seite alles sauber machen (Validator nutzen). Dann robots.txt und Sitemap, und dann erst Google Search Konsole. Nicht zuerst Google Search Konsole.

Wenn du einen Mitarbeiter bei diesen global Players kennst, dann gehen Dinge, die für andere nicht gehen - eigene (positive) Erfahrung. Aber auch andere haben “Connections” und das kann negativ für die eigene Website sein.

Ad Words wird auch benutzt um Konkurrenz-Websites upzuranken. Es gibt aber noch fiesere Methoden. Das soll dich aber erstmal nicht bekümmern. Mach erstmal deine Website technisch sauber, bzw. prüfe ob sie es ist.

Habe den ganzen Tag damit verbracht rauszufinden, was die Ursache sein könnte und habe 2 Punkte gefunden, die Licht ins Dunkel bringen könnten.

  1. Am 10.10. wurde das Mediawiki von 1.40.0 auf 1.40.1 aktualisiert.
    https://www.mediawiki.org/wiki/Release_notes/1.40
    Unter Changes since MediaWiki 1.40.0 sehe ich jedoch nichts, was einen Einfluss auf das SEO haben könnte.

  2. In der Console unter Verhalten von Seiten HTTPS nicht bestanden.
    Daraufhin habe ich mir die 12 indizierten Seiten angeschaut und festgestellt, dass alle 12 mit http angegeben sind. Mein Server betreibe ich schon seit mehreren Jahren nur noch mit https und habe gerade keine Idee, wie Google auf die Idee kommt http zu crawlen. Ich vermute, dass ist der Grund, warum meine Seite abgestraft wurde.

Verstehen kann ich es nicht, denn wenn man meine Seite mit http aufruft, ändert mein Server das automatisch in https. Scheint nur Google nicht zu jucken, denn zum Zeitpunkt der Indizierungen der 12 Seiten (25.08.2023 und 14.09.2023) gab es keine http Auslieferungen.

Habe Google diesbzgl. mal angeschrieben.

@melbao
Mediawiki ist das, was die Wikipedia auch verwendet. Die habe keine Rankingprobleme, sodass ich erstmal davon ausgehe, dass man beim Anlegen von Seiten keine groben Fehler machen kann. Werde mir bei Gelegenheit das mal im W3C-Validator anschauen.

Du verwendest also ein vorgefertigtes CMS. Da sind die Möglichkeiten der Anpassung gering, wenn es update-fähig bleiben soll. Bei CMS für Test bei Problemen immer alle Plug-ins deaktivieren. Also ohne diese testen, bzw. testen ob es an einem Plug-in liegt.

Den “Request” am besten auf der Server command line (SSH) testen per curl. Damit können auch mögliche Fehler in der .htaccess aufgedeckt werden.

Ohne automatische redirects: curl -I example.com
Mit automatischen redirects: curl -LI example.com
und dann mit http / https / www und auch Unterseiten und so weiter testen.

Prüfe, ob deine Website mit example.com und www.example.com erreichbar ist, und wenn ja ob mit Redirect oder ob mit Canonical?

Gab es eventuell am 10.10. Probleme beim Erneuern des SSL Certs?

Habe mich die letzten 10 Tage mit der Ursachensuche beschäftigt. Ich hoffe, die heutige Veränderung ist der Startschuss für einen Trend. 6-7.000 bei der Sichtbarkeit sollte mein Korridor sein. Die Besucherzahl ist heute auch schon doppelt so hoch, wie die letzten Tage.

Ich melde mich morgen nochmal mit den Details.

Mit sistrix habe ich rausbekommen, dass um den 10.10. gleich zwei Ereignisse bei Google stattfanden.
12.10. - Spam Update Oktober 2023
13.10. - Core Update Oktober 2023

Ob da die tatsächliche Ursache zu finden ist, weiß ich nicht.

Googles Search Console indizierte komischerweise per http obwohl mein Server nur https ausliefert. Wie das grundsätzlich gehen kann, verstehe ich nicht. Wer http://example.com aufruft bekommt https://example.com ausgeliefert. Ein www. wird in jedenfall entfernt.
Ich habe dann am 19.11. eine aktuelle Sitemap mit den knapp 19.000 Artikel-Seiten erstellt und diese über die GSC eingereicht. Seit dem 22.11. indiziert bzw. crawlt nun Google meine Seiten komplett neu (als https).

Überprüfung mit GSC, Seobility und sistrix zeigen alle 3 nun die ersten kleinen positiven Fortschritte, die auch unter Matomo sichtbar sind. Die Besucherzahlen waren gestern mit 257 Eindeutigen am höchsten seit dem Absturz und heute sind es auch schon 253 bei noch 3,5 h Stunden Restzeit.

Bei der wichtigen Startseite ist das HTML valide, CSS hat nur beim Cookie-Hinweis 2 Warnungen. https://pagespeed.web.dev/ analysiert SEO mit 100 %. Wobei die genannten Fehler in der .css nicht zu finden sind.

Werde jede Seite, die für ein Keyword in die Top10 rutscht mit höchster Prio HTML & CSS checken und bei Notwendigkeit die Fehler korrigieren.

Mal schauen, wo ich in einem Monat stehen werde.

Sitemap ist bei einer so hohen Anzahl von Pages sehr vorteilhaft für die Search-Bots und Crawler.

War die Website früher mal unter http erreichbar? Search Bots speichern die URLs und versuchen alle paar Jahre diese zu erreichen. Dann erscheinen die URLs mit http, weil diese zum Request benutzt wurden. Es benötigt also eine Redirect oder RewriteRule 301, damit die Bots die alte URL verwerfen. Das sollte dauerhaft so eingerichtet sein, weil einige kleinere Bots erst nach 10 oder 20 Jahren nochmal vorbeikommen.

Also in der htaccess beim RewriteRule http → https am Ende ein [R=301,L].

Die andere Sache ist die, dass du überprüfen solltest, dass auf deinen Webpages keine internen Links mit http verwendet werden.

Die Umstellung von http auf https habe ich am 13.06.2017 vorgenommen.

Server-Einstellungen:
SSL

Interne Links werden als [[Name]] angegeben, da kann niemand das S weglassen. Der Vorteil des Wikis. Google hat das beim Neucrawlen bisher auch so bestätigt.

Ja, aber nur wegen der Sitemap.

Frage deinen Serveradmin, ob bei der Weiterleitung auf HTTPS auch ein HTTP Status Code 301 gesetzt ist.

Da muss ich niemanden fragen. Die erzwungene Verschlüsselung setzt in meiner Serverkonfiguration automatisch ein “Moved Permanently” für http.
ohne Cache “301 Moved Permanently”
mit Cache “200 Moved Permanently (von Datenträgercache)”

Kann jeder am PC mit F12 (Tab Netzwerk) und dann Seitenaufruf mit http testen. Man sieht das da live mit Zeitangaben. Möchte man nicht die Abwicklung über Cache, dann bei “Cache deaktivieren” einen Haken setzen und den Aufruf wiederholen.