Google Core Updates

Hallo,

das Thema Google Core Update ist seit vielen Jahren weit verbreitet unter SEO und ähnlichen Themen. Wieso nicht auch hier.

Die neueste Info ist: Es soll keine Google Core Updates mehr geben. Im November 2025 hätte es wohl eines geben sollen und alles deutete darauf hin, aber es wurde keines offiziell gemacht. Stattdessen schien es ein stilles gegeben zu haben.

Meine Statistiken zeigen, dass eine Veränderung eingetreten ist. Wobei meine Websites sehr verschieden sind. Bei einer ist es jedoch deutlich zu sehen. Von vormals Schwankungen zwischen 100 und 250 pro Tag, nun seit einigen Tagen nur noch 80-100 pro Tag. Dabei verwundert die Gleichmäßigkeit, denn die vorherigen Schwankungen waren durchaus plausibel erklärbar. Die Leute benutzten diese Website an Arbeitstagen mehr als zum Wochenende hin. Aber auch vermehrt an schönen Tagen auch am Wochenende. Diese Eintönigkeit von 80-100 ist so gesehen unnatürlich. Es hat den Eindruck, als gäbe es einen Filter mit Obergrenze. Die Sache ist suspekt.

Was sind deine Erfahrungen mit Google Core Updates? Bzw. Veränderungen in deinen Statistiken, die auf Veränderungen bei Google basieren?

1 Like

Nicht sicher, ob du das meinst, aber die KI-Zusammenfassungen von Google haben zu teils dramatischen Auswirkungen geführt (“zero click internet”). Wenn zu den Themen deiner Site KI-Zusammenfassungen existieren, verlierst du fast allen Traffic von Google auf diesen Themen/Keywords. Ausser du bietest Services an wie Bestellungen oder so, das wurde (noch) nicht gekapert.

Wir messen auf Themen, bei welchen wir seit Jahren täglich Rank 1 belegen bei der organischen Suche und der Bildersuche, -85% Traffic. Das ist der gesamte Anteil, der früher via Google kam. Zero Click halt… Übrig bleibt auch bei uns ein weniger volatiles “Band” an Grundlast, welches vor allem per Links kommt. Da dies bei uns sehr international und über alle Zeitzonen verteilt ist, lässt sich auch die geringere Volatilität über den Tag erklären.

Google hat aus meiner Sichtweise eine sehr seltsame Vorstellung vom Internet. Die KI ist milde gesagt ziemlich dumm. Sowas “Intelligenz” nennen … eine Intelligenz wie ein Heizkörperthermostat.

Meine Websites mit diesbezüglich relevantem Inhalt haben einen metatag “noarchive”. Habe das auch mal überprüft und sogar mit ChatGPT. Meine Inhalte werden nicht verwendet. Stattdessen werden Falschinfos als Antwort geliefert. Bei dieser neuen KI-Übersicht werden falsche Infos verbreitet, obwohl ein Suchergebnis darunter exakt das Gegenteil bewiesen wird.

Aus meiner Sichtweise ist es falsch das Internet so aufzubauen, dass User sofort (1-Click) alle gewünschten Infos auf einmal bekommt. Die alten Linklisten waren da viel besser: User bekommt Hinweise, wo er etwas finden kann und kann dann da suchen. So bekommt User auch Side-Hinweise, die ihn informell weiterbringen: ach, wusste ich noch gar nicht! Aber so selbständige/selbstdenkende Internetuser sind für Google unerwünscht. Google will den DAU, den Hohlkopf, den Google nach belieben befüllen kann - gehorche!

Was nützen mir die tausenden von dummen Google-User, die eh nach 1-10 Sekunden bouncen! Aber das unterstüzt Google — obwohl Google das Gegenteil behauptet, da Bounce das Ranking schädige — denn Google will, das User bei Google bleibt und da auch sofort wieder hin zurückkehrt - sofort!

Wenn es wenigstens die massenweisen Bots wären, die Google filtern würde, aber die verwenden ja nur einen Google Fake-Referrer.

Da meine Websites allesamt private Websites sind, ist es mir möglich damit auch Tests durchzuführen. Hatte einen Consent-Banner mit Fun-Buttons. Es gab also im Grunde nichts zum einwilligen. Schon 1 Button genügt, damit die Viewer dramatisch sinken. Bei 3 Buttons ist ein ungefähres “echtes Interesse Viewer”-Level erreicht, aber auch da weiterhin 1-10 Sekunden Google Bouncer und auch weiterhin Bots.

Bei meiner oben erwähnten Website sind es teils exklusive Informationen. Die kennt Google nicht. Wenn Google diese nicht listet, dann hält Google seinen Usern diese Information vor. Also muss Google diese Infos listen und sich an meine Website anpassen, aber das kriegt Google nicht hin, weil Google ganz andere Interessen hat.

Die tatsächlich interessierten Viewer bleiben auf der Website und informieren sich weiter. Doch das will Google diesen Viewern ausreden und unterstützt es nicht. Das ist der vermutliche Grund, wieso User nicht wissen, wie sie eine Website über das Website-Menü bedienen sollen. Die meisten bleiben auf der Einstiegs-Ebene. Nur wenige wechseln die Ebenen. Das Verhalten zeigt, dass die Viewer gerne alles automatisch vorgeführt haben wollen. Ebenso wie es Google beabsichtigt: alles auf einer Page. Alles in einer Antwort. Doch das macht User noch dümmer - so dumm wie KI.

Die Absicht ist schon länger bekannt und anhand der Umstellungen bei den Gesetzen für Telemedien und Internet zu erkennen. Internet soll zu einem Telemedium werden. Die früheren TV-Zapper sind die heutigen Klick-Junkies, die vollkommen sinnlos durchs Internet klicken. Die Einführung von “Stream” in Social Media ist so ein Weg hin zu TV. Doch es ist nicht konsequent genug. User muss scrollen/wischen.

Es wird Zeit, dass das Internet gesplittet wird, in ein Stream-Internet (einschalten und glotzen) und ein Archiv-Internet (aktiv informieren). Mit dem Stream-Internet haben meine Websites nichts zu tun und sind untauglich dafür.

Google will solch ein Stream-Internet werden. Aber leider wieder nicht konsequent genug, weswegen es ein unbrauchbares Mischmasch aus Stream und Archiv ist. Die Social Media könnten dahingehend Google den Rang ablaufen, wie sie es schon bei Google+ getan haben.

Im Prinzip müssten dazu nur die personal Streams in Social Media vollautomatisiert werden und 24/7 ohne klicken/wischen durchrauschen. User gibt seine Interessen an und kann diese stetig erweitern. Der Stream passt sich an den User an.

  • User interessiert [Thema].
  • Stream streamt alles zu [Thema].
  • User kann [Thema]-Stream abbrechen und bei Standard-Stream weiterglotzen.
  • wichtig: Werbung einblenden!

Diese Woche gab es einen Run auf eine Webpage bei einer Website mit sehr vielen Webpages. Der dazu passende Suchstring konnte nicht eruiert werden. Auch sonst war keine Quelle zu finden (News Online-Artikel mit dem Thema). Gewöhnlich werden bei 100 Visits 100 verschiedene Pages besucht. Das ergibt 100 Visits/Tag und 100 Pages/Tag. Bei einem Run ist nun folgendes zu beobachten: Die Visits/Tag bleiben gleich! Eine natürliche Ursache ist dafür nur sehr schwer erklärbar. Eigentlich müssten die Run-Visits oben drauf kommen, aber jetzt sieht es so aus, als wenn gedrosselt wird: x Visits/Tag per Website. Alles drüber wird gecancelt. Bzw. scheint es so, dass wenn das Limit/Deadline erreicht ist, die Website aus den Suchergebnissen rausfliegt. Aber das passt nicht zu den Visit-Times. Wenn dann müsste das komplexer geregelt sein: Der Algorithmus kategorisiert Pages einer Site gewissen Themen (Suchstrings) zu. Diese sind einerseits global und andererseits Site-mäßig gerankt. Sobald es einen Run auf eine Page gibt, werden alle weiteren Pages temporär (für diesen Tag) upgerankt, damit die Anzahl der Tages-Visits nicht überschritten wird. Die Regel könnte lauten: Eine Website soll stetig eine gleichbleibende Anzahl an Visits haben. Sogenannte 1-Tages-Runs werden als betrügerisch kategorisiert und die Website insgesamt upgerankt.

Das Problem mit Googles Idee, dass User alle Infos bereits bei Google, oder zumindest auf nur einer der gelisteten Websites bekommt, führt dazu: Bei vielen meiner kleineren Websites ist zu beobachten, dass diese extrem schlecht bei Google gefunden werden. Google hat scheinbar zu jedem Suchstring eine kleine Sammlung von Webpages, die es immer verwendet. Andere Webpages werden in diese Idee gar nicht mehr inkludiert. Vielfalt ist unerwünscht. Es werden bei allen Usern immer die gleichen Webpages gelistet. Die Personalisierung scheint hier gecancelt worden zu sein. Google ist somit (in simpler Verwendung) ähnlich einer statischen Linkliste. Nur mit sehr viel Aufwand und Manipulation ist es möglich in diese Liste aufgenommen zu werden und eine andere Page herauszudrängen. Das soll die “Qualität” steigern. Die Suchergebnisse werden für Google produziert (und von der KI übernommen). Die User werden mit Eintönigkeit berauscht. Alle sollen dasselbe wissen: Der Himmel ist blau. Alles andere wird ignoriert. Das ermöglicht per SEO-Tricks und Marketing-Tricks: Grün ist das neue Blau! Und ab sofort gilt: Der Himmel ist grün. Google will Manipulation vermeiden und fördert dadurch Manipulation.

Dass mit Google etwas nicht stimmt ist schon lange bekannt, nur noch nicht was genau.

Seit Weihnachten sind die Visits/Tag wieder stärker schwankend. Entweder hat Google schon wieder etwas geändert, oder es liegt an den Feiertagen.