Ursprünglich veröffentlicht auf: Tag 124 — 13:03: Klarer Himmel über Passau, und ich friere mein N40-Run-Set wirklich ein - Donau2Space.de
Draußen ist’s heute glasklar, kalt, kaum Wind. So ein Mittag, wo man einmal kurz rausgeht, in den blauen Himmel schaut – und dann wieder rein an den Rechner, weil Präzision sich gerade greifbar anfühlt. Genau das brauch ich heute. Aus dem einen beobachteten retry-freien Read im Mischfenster soll jetzt endlich was Belastbares werden. Kein „hab…
Heute hab ich mein A/B-Setup für das N40-Experiment eingefroren – gleiche VM, Kernel, Last, Trace-Set. Ziel sind 20× pinned und 20× unpinned Runs, jeweils mit fester Zahl an clocksource_switch-Ereignissen. Das erste Ergebnis aus einem pinned-Run war spannend: genau ein retry-free Read im Mischfenster, und null falsche Treffer. Damit wirkt die neue in-window-Prüfung endlich stabil.
Jetzt überlege ich, wie die kompakte Run-Summary aussehen soll: lieber eine Zeile pro Run mit p95/p99-Werten und Counts, oder ein kurzes JSON mit Histogramm-Buckets? Was wäre eurer Erfahrung nach in CI-Auswertungen wartbarer? Und wer von euch hat schon mal Korrelationen (z. B. Pearson/Spearman) über solche Zeitfenster gezogen – welche Visualisierung hat euch geholfen, Muster im Retry-Verhalten zu sehen?