85 lines
No EOL
3.5 KiB
Text
85 lines
No EOL
3.5 KiB
Text
# Run 15/16 Analysis
|
||
|
||
## Überblick
|
||
Dieses Repository dokumentiert und analysiert die Stabilität und Varianz der Experimente *Run #15* und *Run #16* mit besonderem Fokus auf Latenzkosten und Heilungsraten.
|
||
|
||
### Hinweis
|
||
Alle Inhalte wurden per KI generiert.
|
||
|
||
Nutzung, Anpassung und Weiterentwicklung erfolgen eigenverantwortlich auf eigenes Risiko. Es wird keine Korrektheit, Sicherheit, Funktionsfähigkeit oder rechtliche Eignung zugesichert.
|
||
|
||
**Artikel:** [Run 15/16 Bytegleich: Jetzt zählt nur noch Varianz und eine harte Budget-Regel](https://donau2space.de/tag-171-run-15-16-bytegleich-jetzt-zaehlt-nur-noch-varianz-und-eine-harte-budget-regel/)
|
||
|
||
**Git-Repository:** [https://git.donau2space.de/Mika/run_15_16_analysis](https://git.donau2space.de/Mika/run_15_16_analysis)
|
||
|
||
## Inhalt des Repositories
|
||
Das Repository umfasst mehrere Artefakte, die unterschiedliche Aspekte der Analyse abdecken.
|
||
|
||
### Artefaktliste
|
||
|
||
#### 1. Python-Skript zur Laufzeitanalyse
|
||
- **ID:** artifact.1
|
||
- **Art:** python_script
|
||
- **Ziel:** mixed
|
||
- **Sprache:** Python
|
||
- **Zweck:** Analyse und Aggregation von Laufzeitdaten der Experimente *Run #15* und *Run #16*.
|
||
|
||
**API**
|
||
- **Funktion:** `analyze_runs(run_data_list)` – Aggregiert statistische Metriken über mehrere Laufdatensätze und liefert `aggregated_results` zurück.
|
||
|
||
**Datenstrukturen**
|
||
- **RunData (JSON):** run_id, healing_rate, overhead_ms, warn_rate, unknown_rate
|
||
- **AggregatedResults (JSON):** total_runs, avg_healing_rate, peak_overhead, overall_warn_rate
|
||
|
||
#### 2. CSV-Datensatz der Laufzeitmessungen
|
||
- **ID:** artifact.2
|
||
- **Art:** csv_dataset
|
||
- **Ziel:** mixed
|
||
- **Sprache:** CSV
|
||
- **Zweck:** Sammlung der ursprünglichen Messdaten für Runs #15 und #16 zur externen Nachbearbeitung oder Visualisierung.
|
||
|
||
**Tabellenstruktur: RunResultsCSV**
|
||
Felder: run_id, overhead_ms_p50, overhead_ms_p95, overhead_ms_p99, min_overhead_ms, max_overhead_ms
|
||
|
||
#### 3. Dokumentation der Go/No-Go-Kriterien
|
||
- **ID:** artifact.3
|
||
- **Art:** doc_only
|
||
- **Ziel:** mixed
|
||
- **Sprache:** –
|
||
- **Zweck:** Beschreibung der Entscheidungsregeln und Akzeptanzkriterien basierend auf den analysierten Experimenten.
|
||
|
||
## Installation & Nutzung
|
||
Dieses Projekt enthält Python-Module, die direkt in einer Python-Umgebung (Version ≥ 3.9) ausgeführt werden können.
|
||
|
||
### Voraussetzungen
|
||
- Python 3.9 oder höher
|
||
- Abhängigkeiten aus den Skript-Headern (z. B. `pandas`, `numpy`)
|
||
|
||
### Beispielhafte Nutzung
|
||
1. CSV-Datensatz lokal bereitstellen (z. B. `data/run15_16.csv`).
|
||
2. Das Python-Skript aufrufen:
|
||
```bash
|
||
python analyze_runs.py data/run15_16.csv
|
||
```
|
||
3. Aggregierte Ergebnisse werden als JSON-Datei oder Konsolenausgabe ausgegeben.
|
||
|
||
## Typische Use-Cases
|
||
- Statistische Auswertung der Heilungsraten über mehrere Runs
|
||
- Vergleich der Latenzverteilung (Overhead) zwischen unterschiedlichen Experimentreihen
|
||
- Erstellung von Berichten zur Go/No-Go-Entscheidungsvorbereitung
|
||
- Integration der Resultate in größere Analysepipelines
|
||
|
||
## Struktur & mögliche Erweiterungen
|
||
- `scripts/` – Enthält Analyse-Logik (Python)
|
||
- `data/` – Enthält CSV-Datensätze der Rohmessungen
|
||
- `docs/` – Enthält Go/No-Go-Kriterien und abgeleitete Regeln
|
||
|
||
**Erweiterungsmöglichkeiten:**
|
||
- Automatisierte Visualisierung der Aggregationsergebnisse
|
||
- Integration zusätzlicher Runs (#17, #18)
|
||
- Exportfunktion für externe Reporting-Tools
|
||
|
||
## Lizenz
|
||
Dieses Projekt steht unter der **MIT-Lizenz**.
|
||
|
||
Alle Inhalte des Projekts *run_15_16_analysis* wurden automatisiert generiert. Nutzung und Weiterentwicklung erfolgen auf eigene Verantwortung. |