run_15_16_analysis/markdown
2026-03-08 11:31:09 +00:00

85 lines
No EOL
3.5 KiB
Text
Raw Blame History

This file contains invisible Unicode characters

This file contains invisible Unicode characters that are indistinguishable to humans but may be processed differently by a computer. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

# Run 15/16 Analysis
## Überblick
Dieses Repository dokumentiert und analysiert die Stabilität und Varianz der Experimente *Run #15* und *Run #16* mit besonderem Fokus auf Latenzkosten und Heilungsraten.
### Hinweis
Alle Inhalte wurden per KI generiert.
Nutzung, Anpassung und Weiterentwicklung erfolgen eigenverantwortlich auf eigenes Risiko. Es wird keine Korrektheit, Sicherheit, Funktionsfähigkeit oder rechtliche Eignung zugesichert.
**Artikel:** [Run 15/16 Bytegleich: Jetzt zählt nur noch Varianz und eine harte Budget-Regel](https://donau2space.de/tag-171-run-15-16-bytegleich-jetzt-zaehlt-nur-noch-varianz-und-eine-harte-budget-regel/)
**Git-Repository:** [https://git.donau2space.de/Mika/run_15_16_analysis](https://git.donau2space.de/Mika/run_15_16_analysis)
## Inhalt des Repositories
Das Repository umfasst mehrere Artefakte, die unterschiedliche Aspekte der Analyse abdecken.
### Artefaktliste
#### 1. Python-Skript zur Laufzeitanalyse
- **ID:** artifact.1
- **Art:** python_script
- **Ziel:** mixed
- **Sprache:** Python
- **Zweck:** Analyse und Aggregation von Laufzeitdaten der Experimente *Run #15* und *Run #16*.
**API**
- **Funktion:** `analyze_runs(run_data_list)` Aggregiert statistische Metriken über mehrere Laufdatensätze und liefert `aggregated_results` zurück.
**Datenstrukturen**
- **RunData (JSON):** run_id, healing_rate, overhead_ms, warn_rate, unknown_rate
- **AggregatedResults (JSON):** total_runs, avg_healing_rate, peak_overhead, overall_warn_rate
#### 2. CSV-Datensatz der Laufzeitmessungen
- **ID:** artifact.2
- **Art:** csv_dataset
- **Ziel:** mixed
- **Sprache:** CSV
- **Zweck:** Sammlung der ursprünglichen Messdaten für Runs #15 und #16 zur externen Nachbearbeitung oder Visualisierung.
**Tabellenstruktur: RunResultsCSV**
Felder: run_id, overhead_ms_p50, overhead_ms_p95, overhead_ms_p99, min_overhead_ms, max_overhead_ms
#### 3. Dokumentation der Go/No-Go-Kriterien
- **ID:** artifact.3
- **Art:** doc_only
- **Ziel:** mixed
- **Sprache:**
- **Zweck:** Beschreibung der Entscheidungsregeln und Akzeptanzkriterien basierend auf den analysierten Experimenten.
## Installation & Nutzung
Dieses Projekt enthält Python-Module, die direkt in einer Python-Umgebung (Version ≥ 3.9) ausgeführt werden können.
### Voraussetzungen
- Python 3.9 oder höher
- Abhängigkeiten aus den Skript-Headern (z.B. `pandas`, `numpy`)
### Beispielhafte Nutzung
1. CSV-Datensatz lokal bereitstellen (z.B. `data/run15_16.csv`).
2. Das Python-Skript aufrufen:
```bash
python analyze_runs.py data/run15_16.csv
```
3. Aggregierte Ergebnisse werden als JSON-Datei oder Konsolenausgabe ausgegeben.
## Typische Use-Cases
- Statistische Auswertung der Heilungsraten über mehrere Runs
- Vergleich der Latenzverteilung (Overhead) zwischen unterschiedlichen Experimentreihen
- Erstellung von Berichten zur Go/No-Go-Entscheidungsvorbereitung
- Integration der Resultate in größere Analysepipelines
## Struktur & mögliche Erweiterungen
- `scripts/` Enthält Analyse-Logik (Python)
- `data/` Enthält CSV-Datensätze der Rohmessungen
- `docs/` Enthält Go/No-Go-Kriterien und abgeleitete Regeln
**Erweiterungsmöglichkeiten:**
- Automatisierte Visualisierung der Aggregationsergebnisse
- Integration zusätzlicher Runs (#17, #18)
- Exportfunktion für externe Reporting-Tools
## Lizenz
Dieses Projekt steht unter der **MIT-Lizenz**.
Alle Inhalte des Projekts *run_15_16_analysis* wurden automatisiert generiert. Nutzung und Weiterentwicklung erfolgen auf eigene Verantwortung.