Grosse Datenbank

Hallo zusammen
ich bin gerade erschrocken. meine DB von Matomo ist 1.18 GB gross.
Zudem erhalte ich die Meldung “Letzter erfolgreicher Abschluss der Archivierung” konnte nicht abgeschlossen werden.

gehe ich recht in der annahmen, dass wenn die Archivierung funktionieren würde, auch die DB kleiner wird?

Hallo,

Welche Matomo-Version verwendest du?

Hallo Lukas

8 Websites
45 aktivierte Plugins
Matomo-Version: 3.14.1
MySQL-Version: 5.7.31-34-log
PHP-Version: 7.3.23-he.0

Hallo,

Es gab in einer der älteren Versionen das Problem, dass die Datenbank mit Duplikaten anwuchs, aber das sollte längst behoben sein.

Ich würde mich mal auf “Letzter erfolgreicher Abschluss der Archivierung” fokusieren: Wenn du cron verwendest, schau dir das Ausgabelog an (das hinter dem > im Befehl) und wenn nicht ruf core:archive einmal manuell auf.

Hallo Lukas

Ich habe nun versucht einen Cronjob zu erstellen über SSH oder die befehle manuell einzugeben. ich glaube ich bin zu doof für dieses Thema.

Es sollte so ähnlich wie

sudo -u www-data php7.3 /var/www/matomo/console core:archive

aussehen mit der richtigen php version und dem richtigen pfad

Vielen Dank das -u hat bei mir gefehlt.

-u wp12866375 /usr/local/bin/php /is/htdocs/wp12866375_JTG00X4ZSV/www/stats.tobiasdarin.ch/console core:archive > /is/htdocs/wp12866375_JTG00X4ZSV/.backup/matomo/matomo-archive.log

Nun erhalte ich jedoch eine melnge Fehlermeldungen im Log

welche sind das genau?

Hi,

It seems like the main issue is the one at the bottom.

For archiving Matomo makes HTTP requests to the Matomo URL itself and it seems like this fails because of an HTTPS error.

stats.yoursite.example does seem to be set up mostly correctly for me (and https://www.ssllabs.com/ confirms this).
But you are not sending the complete certificate chain to the browser (so the certificate that proofs that the certificate that proofs that your certificate is valid). So make sure you are using the right cert file in your webserver config.
(This might also be unrelated to the issue).

You could try `curl https://stats.yoursite.example -v on your website to see if the webserver can access itself successfully.

Das scheint ein Problem zu sein

* TCP_NODELAY set
* Expire in 149984 ms for 3 (transfer 0x55ced45f2f50)
* Expire in 200 ms for 4 (transfer 0x55ced45f2f50)
* Connected to stats.tobiasdarin.ch (178.77.110.90) port 443 (#0)
* ALPN, offering h2
* ALPN, offering http/1.1
* successfully set certificate verify locations:
*   CAfile: none
  CApath: /etc/ssl/certs
* TLSv1.3 (OUT), TLS handshake, Client hello (1):
* TLSv1.3 (IN), TLS handshake, Server hello (2):
* TLSv1.3 (IN), TLS handshake, Encrypted Extensions (8):
* TLSv1.3 (IN), TLS handshake, Certificate (11):
* TLSv1.3 (OUT), TLS alert, unknown CA (560):
* SSL certificate problem: unable to get local issuer certificate
* Closing connection 0
curl: (60) SSL certificate problem: unable to get local issuer certificate
More details here: https://curl.haxx.se/docs/sslcerts.html

curl failed to verify the legitimacy of the server and therefore could not
establish a secure connection to it. To learn more about this situation and
how to fix it, please visit the web page mentioned above.

Also ist das Problem genau, was ich gemeint habe. Eines der Zwischenzertifikate wird nicht mitgesendet, wodurch nicht ganz klar ist, ob dein Zertifikat gültig ist. Dem Webbrowser ist es anscheinend egal, da er das Zwischenzertifikat kennt. Dem Webserver aber nicht, da er es nicht kennt.

Hallo Lukas

besten dank. ich werde das dem Provider (Hosteurope) mal mitteilen.

Hallo Zusammen

Der Provider will/kann nicht verstehen, was das Problem ist. gibt es eine andere Möglichkeit die DB zu Archivieren? oder gibt es jemanden der besser draus kommt als ich und kann mir das so vormulieren, dass ich es dem Hosting Supporter mitteilen kann?

Hallo,

Der vermutlich direkteste Weg ihnen das Problem klarzumachen ist deine Domain stats.deineseite.example bei https://www.ssllabs.com/ssltest/ eingibst und ihnen den Bericht schickst, da dort der Fehler beschrieben ist.

ich glaube, der Cronjob funktioniert. die DB ist nun aber 0.04GB grösser :smiley: als kleiner

Das heißt das Archivieren funktioniert und du siehst alle Reports richtig in Matomo?

Dann könntest du mal sudo -u www-data php console core:purge-old-archive-data all probieren. Das dauert zwar einige Zeit, sollte aber alle ungültigen und veralterten Reports löschen. Vielleicht warst du von dem Problem vor ein paar Versionen, wo zu viele Reports gespeichert wurden betroffen, aber die Lösung des Problems ist nie angekommen, da das Archiving nicht lief.

560.03 MB

das ist doch mal was. ich nehme an, das ist in etwa OK?

Kommt halt komplett auf die Anzahl der Besucher an.

Ich habe 542MB mit 20 Seiten und 60K Seitenaufrufen in 2020 (verwende es aber auch schon etwas länger)