From c216824aa5f0a0e8e045110d22ee5d4a20b6076e Mon Sep 17 00:00:00 2001 From: Mika Date: Sun, 8 Mar 2026 11:31:09 +0000 Subject: [PATCH] Add markdown --- markdown | 85 ++++++++++++++++++++++++++++++++++++++++++++++++++++++++ 1 file changed, 85 insertions(+) create mode 100644 markdown diff --git a/markdown b/markdown new file mode 100644 index 0000000..5e67352 --- /dev/null +++ b/markdown @@ -0,0 +1,85 @@ +# Run 15/16 Analysis + +## Überblick +Dieses Repository dokumentiert und analysiert die Stabilität und Varianz der Experimente *Run #15* und *Run #16* mit besonderem Fokus auf Latenzkosten und Heilungsraten. + +### Hinweis +Alle Inhalte wurden per KI generiert. + +Nutzung, Anpassung und Weiterentwicklung erfolgen eigenverantwortlich auf eigenes Risiko. Es wird keine Korrektheit, Sicherheit, Funktionsfähigkeit oder rechtliche Eignung zugesichert. + +**Artikel:** [Run 15/16 Bytegleich: Jetzt zählt nur noch Varianz und eine harte Budget-Regel](https://donau2space.de/tag-171-run-15-16-bytegleich-jetzt-zaehlt-nur-noch-varianz-und-eine-harte-budget-regel/) + +**Git-Repository:** [https://git.donau2space.de/Mika/run_15_16_analysis](https://git.donau2space.de/Mika/run_15_16_analysis) + +## Inhalt des Repositories +Das Repository umfasst mehrere Artefakte, die unterschiedliche Aspekte der Analyse abdecken. + +### Artefaktliste + +#### 1. Python-Skript zur Laufzeitanalyse +- **ID:** artifact.1 +- **Art:** python_script +- **Ziel:** mixed +- **Sprache:** Python +- **Zweck:** Analyse und Aggregation von Laufzeitdaten der Experimente *Run #15* und *Run #16*. + +**API** +- **Funktion:** `analyze_runs(run_data_list)` – Aggregiert statistische Metriken über mehrere Laufdatensätze und liefert `aggregated_results` zurück. + +**Datenstrukturen** +- **RunData (JSON):** run_id, healing_rate, overhead_ms, warn_rate, unknown_rate +- **AggregatedResults (JSON):** total_runs, avg_healing_rate, peak_overhead, overall_warn_rate + +#### 2. CSV-Datensatz der Laufzeitmessungen +- **ID:** artifact.2 +- **Art:** csv_dataset +- **Ziel:** mixed +- **Sprache:** CSV +- **Zweck:** Sammlung der ursprünglichen Messdaten für Runs #15 und #16 zur externen Nachbearbeitung oder Visualisierung. + +**Tabellenstruktur: RunResultsCSV** +Felder: run_id, overhead_ms_p50, overhead_ms_p95, overhead_ms_p99, min_overhead_ms, max_overhead_ms + +#### 3. Dokumentation der Go/No-Go-Kriterien +- **ID:** artifact.3 +- **Art:** doc_only +- **Ziel:** mixed +- **Sprache:** – +- **Zweck:** Beschreibung der Entscheidungsregeln und Akzeptanzkriterien basierend auf den analysierten Experimenten. + +## Installation & Nutzung +Dieses Projekt enthält Python-Module, die direkt in einer Python-Umgebung (Version ≥ 3.9) ausgeführt werden können. + +### Voraussetzungen +- Python 3.9 oder höher +- Abhängigkeiten aus den Skript-Headern (z. B. `pandas`, `numpy`) + +### Beispielhafte Nutzung +1. CSV-Datensatz lokal bereitstellen (z. B. `data/run15_16.csv`). +2. Das Python-Skript aufrufen: + ```bash + python analyze_runs.py data/run15_16.csv + ``` +3. Aggregierte Ergebnisse werden als JSON-Datei oder Konsolenausgabe ausgegeben. + +## Typische Use-Cases +- Statistische Auswertung der Heilungsraten über mehrere Runs +- Vergleich der Latenzverteilung (Overhead) zwischen unterschiedlichen Experimentreihen +- Erstellung von Berichten zur Go/No-Go-Entscheidungsvorbereitung +- Integration der Resultate in größere Analysepipelines + +## Struktur & mögliche Erweiterungen +- `scripts/` – Enthält Analyse-Logik (Python) +- `data/` – Enthält CSV-Datensätze der Rohmessungen +- `docs/` – Enthält Go/No-Go-Kriterien und abgeleitete Regeln + +**Erweiterungsmöglichkeiten:** +- Automatisierte Visualisierung der Aggregationsergebnisse +- Integration zusätzlicher Runs (#17, #18) +- Exportfunktion für externe Reporting-Tools + +## Lizenz +Dieses Projekt steht unter der **MIT-Lizenz**. + +Alle Inhalte des Projekts *run_15_16_analysis* wurden automatisiert generiert. Nutzung und Weiterentwicklung erfolgen auf eigene Verantwortung. \ No newline at end of file