ich suche nach einer Idee / Ursache warum meine .csv Daten nicht mehr im Dashboard ankommen.
Doch erst von Anfang an:
Ostern habe ich genutzt um meine gesammelten historischen Daten in die Platform zu laden.
Nach dem der historische Import so gut geklappt hat, habe ich mich entschieden das gleich Verfahren für die kontinuierliche Datenpflege zu verwenden.
Ich habe da eine sehr gute Idee, wodurch da etwas Serverseitig zerbrochen sein könnte, nicht jedoch was.
Andreas und ich hatten in dieser Zeit an einem kleinen Nebenprojekt gearbeitet, welches die Daten von Luftdaten.info ins Grafana einpflegen kann mit dem Ziel, diese auch historisch darstellen zu können, vgl. luftdaten.getkotori.org.
Andreas hat dabei einiges in die Hand genommen. Wie ich Ihn kenne, wird er sich das demnächst mal ansehen.
Also bitte Geduld haben. Danke
herzlichen Dank für die Information - dann warte ich einfach mal ab.
Wenn Ihr eine Lösung habt - wäre ich für einen Hinweis dankbar - dann kann ich die gesammelten Daten nach laden.
Und in der Zwischenzeit kann ich mich mich meinem dem neuen Waagenaufbau widmen.
Danke und viel Erfolg bei der Suche nach der Ursache.
Weiß ich ja - das heißt aber, daß Du also per csv anlieferst, es also auch funktioniert - und @Stefan nicht auf @Andreas warten müßte?! Wenn es also aktuell bei Dir per csv klappt, stellt sich die Frage, was Eure Konfigurationen unterscheidet, daß es bei @Stefan nicht geht…
Wir haben zwischenzeitlich eine Authentifizierung bei der Datenanlieferung eingeführt. Vielleicgt kannst du @einsiedlerkrebs das Verfahren hier noch mal beschreiben. Kann es trotz 200 ok das sein?
Ich dachte, dass gilt nur für MQTT. Wo eine Authentifizierung für HTTP steckt, habe ich keine Idee. Zwar wird das intern auch auf den MQTT bus geschickt, localhost ist aber gewhitelisted. @Andreas ist aber heute wieder da, also spätenstens morgen, kann ich ihn dazu mal fragen.
Wie gesagt, denke ich dass es mit den Umbauarbeiten zu tun hat. Montag und auch Dienstag wurde intensiv am Kotori gearbeitet und HTTP wurde auf jeden Fall angefasst, ob .CSV direkt weiß ich nicht.
schön zu hören, dass es einwandfrei geklappt hat, die Daten auf die Plattform zu übermitteln. Umso bedauerlicher, dass es seit dem 24.4. nicht mehr klappt - sorry vielmals, falls wir dabei auf der Plattformseite etwas kaputtgemacht haben!
Ich stehe nun wieder bereit fürs gemeinsame Debugging, damit die Daten bald wieder fließen. Schickst Du denn weiterhin Daten und falls ja, in welchem Intervall?
ja ich sammle noch fleissig Daten daran soll es nicht scheitern.
Die Daten kommen alle 5 min und werden gleich weiter “geschoben”.
Hab mir da recht einfach beholfen in dem ich folgendes “Load”-skript aufrufe, wenn die Daten am Webserver ankommen
ich konnte den Fehler lokal bei mir bisher leider noch nicht reproduzieren. Es wäre spitze, wenn Du Dein Meßintervall kurzzeitig auf 1 mal pro Minute herunterschrauben könntest. So bekomme ich die Daten noch öfters rein, um die Fehlersuche direkt am lebenden Objekt durchführen zu können. Wenn es geht, gerne auch alle 30 Sekunden :-).
Hier hatte ich noch mal einen Import von ca 50 Datensätzen probiert - und eine Handvoll ging durch - die restlichen nicht - also geht evlt. doch mehr durch als ein Datensatz - evlt. ein Zeitlimit / anderes Fenster.
Weiterhin noch viel Erfolg bei der Fehlersuche und ein ganz großes Dankeschön!
die Daten sollten jetzt (per Fix regression re. CSV data acquisition) wieder fließen! Wenn Du die historischen Daten nochmals importieren willst, sollten wir einen lückenlosen Datenbestand in der Datenbank haben.
P.S.: Du kannst Dir das Dashboard kopieren und dann weiter verändern, wenn Du willst. Dabei kannst Du Dir gerne alle Dinge von den anderen Dashboards abschauen, die Dir gefallen. Wir schicken Dir dazu entsprechende Anmeldedaten in einer privaten Nachricht.