Auto experiment repo from n8n
Find a file
2026-03-04 15:16:40 +00:00
artifact.1 Add artifact.1/requirements.txt 2026-03-04 15:16:38 +00:00
artifact.2 Add artifact.2/ab_test_run11_results.csv 2026-03-04 15:16:39 +00:00
artifact.3 Add artifact.3/README.md 2026-03-04 15:16:39 +00:00
LICENCE.md Add LICENCE.md 2026-03-04 15:16:39 +00:00
README.md Add README.md 2026-03-04 15:16:40 +00:00

Experiment: run_11_fresh_vs_near_expiry

Überblick

Dieses Experiment untersucht Zeitstempel-Differenzen zwischen frischen und fast ablaufenden Produkten in einem kontrollierten A/B-Test-Setup. Ziel ist es, Unterschiede im Verhalten der beiden Gruppen zu quantifizieren und deren Einfluss auf Qualitätsmetriken zu bestimmen.

Hinweis:
Alle Inhalte wurden per KI generiert.

Nutzung, Anpassung und Weiterentwicklung erfolgen eigenverantwortlich auf eigenes Risiko. Es wird keine Korrektheit, Sicherheit, Funktionsfähigkeit oder rechtliche Eignung zugesichert.

Artikel: Link zur Projektbeschreibung
Git Repository: https://git.donau2space.de/Mika/run_11_fresh_vs_near_expiry


Inhalt des Repositories

Das Repository enthält folgende Artefakte:

Artifact 1: Python-Skript zur Datenanalyse

  • Art: python_script
  • Ziel: linux-userspace
  • Sprache: Python
  • Zweck: Aggregation und Analyse der A/B-Testdaten. Berechnet Differenzen zwischen den Gruppen und erzeugt Kennzahlen für die Ergebnisbewertung.
  • API-Funktionen:
    • analyze_ab_data(data) → results analysiert A/B-Testdaten und liefert aggregierte Metriken.
  • Datenstrukturen:
    • TestResult (JSON) mit Feldern: group, pinned_status, warn_rate, unknown_rate, delta_t_rate.

Artifact 2: CSV-Datensatz der Ergebnisse

  • Art: csv_dataset
  • Ziel: mixed
  • Sprache: CSV
  • Zweck: Enthält tabellarische Ergebnisse des Experiments zur weiteren Analyse oder Einbindung in Reporting-Tools.
  • Struktur: ABTestResults (Tabelle) mit Spalten: group, pinned_status, warn_rate, unknown_rate, delta_t_rate.

Artifact 3: Projektdokumentation

  • Art: doc_only
  • Ziel: mixed
  • Sprache:
  • Zweck: Enthält beschreibende Dokumentation zu Testaufbau, Hypothesen, Metriken und Entscheidungslogik.

Installation & Nutzung

Für das Python-Skript wird eine Linux-Umgebung mit installiertem Python ≥ 3.8 empfohlen.

Installation

  1. Repository klonen:
    git clone https://git.donau2space.de/Mika/run_11_fresh_vs_near_expiry
  2. Abhängigkeiten installieren (z.B. Pandas, NumPy):
    pip install -r requirements.txt

Nutzung

Skriptstart zur Analyse von Daten:

python analyze_ab_data.py --input data/results.csv --output summary.json

Optional können eigene Datensätze eingespielt und mit dem Skript ausgewertet werden.


Typische Use-Cases

  • Vergleich von Kennzahlen zwischen Produktchargen mit unterschiedlichem Alter
  • Untersuchung von Prozessabweichungen in A/B-Tests
  • Validierung von Hypothesen zu Haltbarkeits- und Qualitätsmetriken
  • Erstellung von Ergebnisreporten für Produktions- oder Testsysteme

Struktur & mögliche Erweiterungen

Struktur:

  • /scripts/ Python-Skripte zur Analyse
  • /data/ CSV-Datensätze
  • /docs/ begleitende Dokumentation

Erweiterungen:

  • Integration zusätzlicher Metriken in die Analysefunktion
  • Automatische Datenvisualisierung aus den Analyseergebnissen
  • Erweiterung der CSV-Schemafelder um Kontextdaten (Produktart, Testlinie)

Lizenz

Dieses Projekt steht unter der MIT-Lizenz.

Alle Inhalte einschließlich Code, Daten und Dokumentation wurden automatisch durch KI generiert.
Verwendung erfolgt auf eigenes Risiko ohne Gewährleistung auf Richtigkeit oder Eignung für bestimmte Zwecke.