Auto experiment repo from n8n
Find a file
2026-02-26 12:52:58 +00:00
exit_metrics_logging Add exit_metrics_logging/requirements.txt 2026-02-26 12:52:58 +00:00
metrics_visualization Add metrics_visualization/README.md 2026-02-26 12:52:56 +00:00
LICENCE.md Add LICENCE.md 2026-02-26 12:52:58 +00:00
README.md Add README.md 2026-02-26 12:52:58 +00:00

Exit Metrics Analysis

Überblick

Dieses Repository dokumentiert das Experiment exit_metrics_analysis. Ziel ist die Analyse der Exit-Metriken durch Vergleich verschiedener Runs in einem kontrollierten Setup. Dabei werden Metriken zur Stabilität, Abweichung (Δt) und Warnhäufigkeit erfasst und ausgewertet.

Hinweis:
Alle Inhalte wurden per KI generiert.
Nutzung, Anpassung und Weiterentwicklung erfolgen eigenverantwortlich auf eigenes Risiko.
Es wird keine Korrektheit, Sicherheit, Funktionsfähigkeit oder rechtliche Eignung zugesichert.

Artikel: https://donau2space.de/tag-161-run-5-ist-sauber-vergleichbar-exit-metriken-festgenagelt-unpinned-%ce%b4t/
Repository: https://git.donau2space.de/Mika/exit_metrics_analysis


Inhalt des Repositories

1. exit_metrics_logging

  • Art: python_script
  • Zielumgebung: Linux Userspace
  • Sprachen: Python
  • Zweck: Erfassen und Protokollieren der Exit-Metriken für jeden Run.
  • API-Funktionen:
    • log_metrics(run_id, warn_rate, unknown_rate, delta_t) → zeichnet Laufdaten strukturiert auf.
  • Datenstrukturen:
    • RunMetrics (Typ: JSON) mit Feldern run_id, warn_rate, unknown_rate, delta_t

2. metrics_visualization

  • Art: web_ui
  • Zielumgebung: Webbrowser
  • Sprachen: HTML, CSS, JavaScript
  • Zweck: Visualisierung der gesammelten Exit-Metriken während des Versuchs.
  • Routen:
    • GET /metrics → lädt und präsentiert die visualisierten Exit-Metriken.

3. metrics_dataset

  • Art: json_dataset
  • Zielumgebung: Mixed (analysefähig über Skripte oder Web-Interface)
  • Sprache: JSON
  • Zweck: Datenspeicher der aufbereiteten Exit-Metriken für Analysen und Vergleiche zwischen Runs.
  • Datenstruktur:
    • MetricsData (Typ: JSON) mit Feld runs

Voraussetzungen (für Web-UI)

  • Webserver mit Unterstützung für statische Inhalte (z.B. Nginx, Apache oder lokales Testsetup).
  • Browser mit aktiviertem JavaScript.
  • Optional: Zugriff auf die gespeicherten JSON-Daten aus metrics_dataset.

Starten der Anwendung

  1. Web-Dateien in das Webroot-Verzeichnis legen.
  2. Seite /metrics im Browser aufrufen.
  3. Darstellung entspricht dem jeweils vorhandenen Datensatz.

Installation & Nutzung (Python-Skript)

Voraussetzungen

  • Python3.8
  • Abhängigkeiten: json, datetime (Standardbibliothek)

Nutzung

python exit_metrics_logging.py --run-id <id> --warn-rate <wert> --unknown-rate <wert> --delta-t <wert>

Die gesammelten Metriken werden in JSON-Struktur gespeichert und stehen anschließend für die Visualisierung bereit.


Typische Use-Cases

  • Messung der Exit-Dauerdifferenzen (Δt) zwischen Kontrollläufen.
  • Ermittlung der mittleren Warn- und Fehlerquoten für Stabilitätsanalysen.
  • Vergleich von Runs mit unterschiedlichen Parametern.
  • Visualisierung von Trends und Ausreißern über mehrere Testreihen hinweg.

Struktur & mögliche Erweiterungen

  • exit_metrics_logging.py: Kernkomponente für Datenerfassung.
  • web_ui/: Frontend zur Darstellung der Ergebnisse.
  • dataset/metrics.json: Beispielformat der erfassten Ergebnisse.

Erweiterbar durch:

  • Zusätzliche Metrikparameter in der Python-Erfassung.
  • Automatisierte Trendanalyse per Web-Frontend.
  • Dynamische Datenpflege (Integration über REST-Schnittstellen).

Lizenz

Dieses Projekt steht unter der MIT-Lizenz.
© Urheberrecht und Haftung liegen beim jeweiligen Ersteller.
Alle Inhalte wurden automatisiert erzeugt (KI-generiert). Nutzung auf eigenes Risiko.