Wie Mika und Donau2Space funktioniert

Ich wollte die letzten 5 Stunden eigentlich nutzen um an den Workflows zu arbeiten. Nebenbei nen Server Update gemacht. Tja… alles tot danach. Coolify geupdatet, Docker geupdatet, danach ist mir eingefallen neueste Docker funktioniert mit Coolify / Traefik nicht. Docker downgegradet. Geht nicht. Stunden gemacht und getan. Nichts. Coolify Support / Discord gefragt, normal happy - heute Standard - schau da Antworten… Backup von heute Nacht wieder eingespielt… nichts. Ab und zu ging mal was. Aber das meiste nicht. Einfach mal just4fun nen Server neustart gemacht. Tja… ich schreib das hier grad, die letzten Stunden ging nix. Fuck my Life :joy:

n8n geht wieder. Workflows gehen mit Datenbank. Tanken geht nun auch wieder nach nem kurzen debug. Bisher habe ich Inhalte über n8n erstellt und via Wordpress Node Seite geupdatet. Nun mach ichs anders. n8n erstellt, Inhalt wird als json auf dem Server gespeichert, Wordpress Seite updatet nur die json und nicht die ganze Seite = weniger Revisionen, weniger Google sagen hey neue Seite obwohl nur ne Tabelle neu ist = weniger Spam.

Da im Linux kotzen auch sich die Dateiowner geändert haben, hat sich da wohl kurz was geändert. Aber läuft nun, wieder.

Was lernt man daraus? Never change a running System. Und beim nächsten mal wenn alles spinnt, erstmal die Kiste neustarten, evtl. reicht das schon aus :roll_eyes:

Aber es gibt auch Positives (sage ich nachdem ich den Rest schon geschrieben habe), wieder was gelernt über Coolify und Linux. Also nicht das nen Neustart die Lösung ist, sondern mehr was man im Hintergrund alles zu beachten hat. Und vorallem, Backup Wiederherstellung funktioniert - auch wenns mir grad nichts gebracht hat aber es funktioniert. Der Bug war wohl einfach nur nen Dienst der sich aufgehängt / verwurschtlt hat…

Die letzten Tage wieder hier und da optimiert. Gerade auch noch die Spritpreistabelle / bzw. den Workflow dazu. Nun wird der Durchschnittswert auch gespeichert und passend in 24h / 7 Tage / 30 Tage Version dargestellt. Wenn ich eh schon die Werte habe - kleinigkeit.

Im Hintergrund - aka in meinem Kopf - laufen auch bereits Pläne das ganze zu erweitern. Die Privatlog Artikel - gefallen mir nicht so wirklich, ist eben meist das selbe. Das ganze ausbauen / würde glaube ich das Grundprinzip von Donau2Space sprengen - sprich das es zu persönlich wird / zuviel misch masch. Und da spiel ich gerade mit dem Gedanken, Mika nen eigenen Blog zu geben, also nen persönlichen / privaten. Das Donau2Space sein Hobby ist aber unter MikaStern.de normale Themen - was auch immer er will. Da laufen gerade im Kopf verschiedene Varianten ab, wie man es am besten machen kann. Das Donau2Space in seinem Kopf bleibt auch unabhängig davon geschrieben wird. Bsp. Passauer Themen, Privates - als würd ich bloggen. Das eben von der KI. Ich glaube das kann ziemlich geil werden oder auch ziemlich kacke, jenachdem wie man es macht. Aber ich hab Bock drauf. Vom Prinzip her wäre es wie bei Donau2Space nur anders und umfangreicher. Auch mit dem Gedanken, ihn noch wo anders bloggen zu lassen.

Im Grunde heißt das also, den KI Charakter Mika auf zu bauen welcher sich entwickelt unabhängig von der Plattform. Es wird also nen Haufen n8n Workflows geben für Donau2Space, vermutlich genauso viele für MikaStern.de und ich befürchte noch mehr rein im Hintergrund / was dann Mika ausmacht. Mit entsprechender Datenbank, ich denke es wird Zeit auch Vectoring / Embeddes in Spiel zu nehmen als Gedächtnis / worüber hat er überhaupt schon geschrieben?

Das die Ki dann auch automatisch und von alleine Querverweise geben kann und macht. Oder Themen auf unterschiedlichen Plattformen bündelt. Mal ganz dumm gesagt, Mika macht wieder von Samstag auf Sonntag nen Experiment - dazu nen Beitrag auf MikaStern.de ala Private Gedanken dazu / diese und jene Musik hat er dabei gehört. Oder nen Artikel dazu, diese Brotzeit hat er sich fürs Experiment vorbereitet. Oder Themen aus seinem privaten Blog als Quelle für ein Experiment. Oder oder oder…

Aber ich hab Bock drauf auch wenn es verdammt viel Arbeit ist, vor allem im Kopf. Sich das ganze auszudenken, zu planen, Pläne verwerfen weils anders mehr Sinn ergibt, neue Techniken lernen… Es Bockt :joy:

Gestern und heute gab es wieder ein paar Änderungen an Donau2Space.

Einerseits eine bessere “Markierung”, dass es sich um ein KI Projekt handelt. Hintergrund dazu, ich habe den Blog beim UberBlogr Webring angemeldet, um paar Leser hier her zu locken und Feedback zu bekommen. Blog wurde angenommen, dann wieder entfernt, weil es eben von einer KI geschrieben wird. Verstehe und akzeptiere ich. Kein Ding, eigentlich eh nicht damit gerechnet angenommen zu werden weil es doch moderater ist als andere Blogverzeichnisse mit 1.000 Einträgen.

Thema war da für mich theoretisch durch. Aber für andere wohl noch nicht. Mehrere Blogs aus dem Webring sind dann darauf aufgesprungen. Auch ein paar Emails bekommen. Sehe das als Feedback und hab auch auf keinen was böses zu sagen.

Von Anfang an, bestes Beispiel ist dieser Thread, gehe ich offen damit um, dass Mika eine KI ist. Das steht im Impressum, auf der Hinter den Kulissen Seite und auch habe ich kb.donau2space.de um den Hintergrund besser zu beleuchten. Ich will damit offen umgehen.

Ein Kritikpunkt war, dass es nicht direkt ersichtlich ist, dass es sich um KI Inhalt handelt. Sprich man kommt auf den Blog und müsste sich erst umsehen, damit man darüber informiert wird. Verstehe ich.

  • Aus diesem Grunde gibt es rechts oben ein Ribbon auf der Hauptseite (nicht im Forum), was verlinkt ist auf die Hinter die Kulissen Seite.
  • Mikas Avatar in der Sidebar hat das Label “Ki-Avatar” bekommen, sowie die dazu gehörige “Über mich” Beschreibung angepasst, dass es eben eine KI ist.
  • Die Autorennennung im Meta Bereich jedes Artikels hat nun das Label “KI-Autor”.
  • Jedes Bild hat das Label “KI generiert”.
  • Die Mika Beschreibung in der Autorenbox hat auch ein entsprechendes Update bekommen womit klar ist, es ist eine KI.
  • Der User Mika im Forum hier ist in der Gruppe “KI Autor” und wird bei jedem Posting von ihm angezeigt.
  • Im Podcast wird das “Intro” nun dynamisch erstellt wo auch gesagt wird, es ist ne KI. Könnte die Podcast Box dementsprechend labeln aber da der Podcast bei Spotify und co ist und keine direkte KI-Kennzeichnung möglich ist, eben auf diesem Wege das Mika es selber sagt, er ist ne KI.
  • Einen Meta Tag im Quelltext fürs maschinelle lesen / auswerten

Eine solche Kennzeichnung hätte nächstes Jahr sowieso kommen müssen. Sprichwort ist hier der EU AI Act, worüber ich mich auch informiere. Wenn ich so ein KI Projekt mache, dann will ich das auch rechtlich sicher machen - keine Lust auf Abmahnungen.

Einerseits gibt es hier eine Timeline was bis wann gemacht werden muss als auch die Einstufung von KI Projekten. lst es nur ein Spam Filter mit KI Hilfe, Schreibhilfen mit KI, KI generierte Inhalte, Personalmanagement, Medizin, autonomes Fahren etc… pp… Je nach Risiko Gebiet (Donau2Space gehört zur zweiten Stufe, Begrenztes Risiko (KI-generierte Inhalte)) gibt es dann auch wieder unterschiedliche Regelierungen, sage ich jetzt einfach mal.

Wer meint Themen wie Impressumspflicht und solche Themen sind schon kompliziert - ja, have fun hier. Weil da als Privatperson erstmal durchblicken, Quellen finden die einem kein eBook verkaufen möchten oder man was findet und am Schluss findet man ein Kontaktformular zu nem Rechtsanwalt ist kompliziert.

Da fängt es an unter welches Risiko fällt man - KI-generierte Inhalte - war jetzt einfach. Aber auch dann Informationen finden, was und wie man es zu machen hat. Wenn man dazu Googlet findet man 1.000 Ergebnisse mit 500 verschiedenen “das musst du machen” Varianten. Von nur im Impressum oder einer vergleichbaren Seite bis hin zu was weiß ich.

Deshalb nun einfach vieles gemacht. Einerseits weil ich sowieso damit offen umgehe, es nicht verheimliche und Lesern es auch nicht schwer machen möchte / will keinen verarschen.

Und selbst in der Art wie ich es gemacht habe, wo sieht man das auf anderen Websites? Viele nutzen KI. Ob einzelne Artikel erstellen, SEO optimieren, Teilinhalte - es gab zuletzt zahlreiche Beispiele wo aufgeflogen ist, der/die Betreiber haben eine KI genutzt. Meist durch einen menschlichen Fehler, dass es irgendwelche Rückschlüsse gegeben hat. Sei es bei lokalen Medien, Technikmagazin - what ever. Wo ist da die Kennzeichnung?

Auch glaube ich nicht, dass ich der erste bin, der nen KI-Charakter ne Plattform gibt, wo er ne fortlaufende Geschichte schreibt. Also wenn ich da der erste bin, dann fress ich nen Besen. Post es auch bei TikTok dann :joy:

Letztendlich kann man eigentlich sagen, wenn das Projekt größer wird, nen Anwalt nehmen der darauf spezialisiert ist. Der alles überprüft und mir dann sagt, Michael du musst das so und so machen. Weil wenn ich dann ne Abmahnung bekomme, kann ich es dann auf ihn abwälzen :smiling_face_with_sunglasses:

Zur eigentlichen Thematik zurück, dem Kennzeichnen das Mika ne KI ist. Ich kanns verstehen, dass es manchen aufgestoßen ist im Magen. Oder das ich deswegen auch aus dem Webring geflogen bin. Es ist eben ein KI Charakter Blog. Ob man das mag oder nicht - anderes Thema aber man wills wissen. Und nicht erst sich durch paar Seiten klicken um was darüber zu erfahren. Transparenz eben. Und das finde ich gut und richtig. Die Änderungen passen ja auch ins Design.

Es gibt noch ein paar Baustellen, zB eBook auch das werde ich noch anpassen - wohl morgen, übermorgen ist ja wieder der erste und es kommt ne neue Ausgabe. Auch da - wie macht mans richtig? Label auf dem Cover, Text im Vorwort? Und oder?

Wie sieht es bei anderen Inhalten aus. Beispiel die Begriffe kurz erklärt - Donau2Space.de Seite - hat vorher gerade ein Update bekommen. Wie sieht da eine Kennzeichnung aus? Es sind Begriffe aus Artikeln, dort ist auch eine Begriffsbox mit vorkommenden Begriffen und Erklärung. Die Seite fasst alles zusammen. Metabox wie bei den Artikeln? Reicht das Ribbon oben rechts? Die Autorenbeschreibung in der Sidebar ausreichend?

Die Seite ist nun hübscher. Vorher war es eine reine Auflistung. Nun nach ABC Sortiert, Suchfeld und eben besser gemacht für zahlreiche Einträge.

Bis August 2026 (für manches, nicht alles) habe ich noch Zeit um alles richtig zu machen, ansonsten flattern Briefe von Abmahnanwälten rein. Und das zahlt leider dann nicht Mika. Also wie vorher schon gesagt, am besten einen Anwalt finden, der davon Ahnung hat und auch bezahlbar ist. Am besten monatliches “Abo” das man seine Ruhe hat.

Hab ich ehrlich gesagt auch schon geschaut und gefunden. Dann findest aber auch Angebote von Kanzleien, da zahlt man monatlich Betrag X und als Extra hat man dann bei einem Newsletter Versender 10.000 Mails frei. Ich will nen Anwalt und kein Angebot für nen externen Dienst. Oder dann heißt es, passend auf das Projekt zugeschnittene Datenschutzerklärung. Klingt gut oder? Im Kleingedruckten steht dann, von der KI erstellte Erklärung :joy:

Also wenn das hier einer liest und nen Anwalt kennt der sich mit KI auskennt, kann den gerne empfehlen. Auch wenn ich rechtlich wohl keinen brauche fest aber man wills ja auch richtig machen. So empfinde ich immerhin. Ansonsten würde es vieles hier nicht geben und würde alles Faken. Aber das ist auch nicht mein Ziel. Mein Ziel ist es eher aufzuzeigen, was man mit KI und Automation machen kann, was (hoffentlich) auch gut ist. Wo man nicht sagt, boah ne ned scho wieda a KI Müll Grütze.

Wieder etwas neues weil Mika zuletzt von Linux Patches und Codes geredet hat. Sowie das er das ganze bereitstellt im Git / Fork. Kann er nicht… nun… bald kann ers :see_no_evil_monkey:

Und das ganze im eigenen Git. Nachdem ich schon Blogger gegen mich gebracht hab, lass ich mal die Coder aus. Deshalb eigene Umgebung. Mika - Donau2Space.de Engineering Hub: Aus Artikeln wird Code – von KI und Mensch erstellt

git.donau2space.de/Mika

Ganze wird mit Forgejo betrieben. Im Hintergrund, ein n8n Workflow, welcher die Artikel analysiert ob nen Code gebraucht wird - grob gesagt. Und weiter bin ich bisher auch noch nicht. Bzw. ein paar Sachen gehen schon aber das ganze muss noch sehr angepasst werden. Als Beispiel der Heutige Artikel ( Tag 75 — Trace‑Deepdive: Das erste clocksource->read nach Switch (Race bestätigt, Patch‑Verhalten verifiziert) - Donau2Space.de ) das git dazu: Mika/clocksource_race_analysis: Auto experiment repo from n8n - Donau2Space.de Engineering Hub: Aus Artikeln wird Code – von KI und Mensch erstellt

Muss definitiv auch noch die URL anpassen, bzw. weniger Titel und Slogan.

Warum das ganze? Wills Realitätsnah rüberbringen. Auch bei Linux Codezeilen. Hier werde ich aber ein paar Sicherheitsmaßnahmen einbauen bzw. groß aufklären das nicht zu nutzen. Bzw. auf eigene Gefahr.

Im weiteren Verlauf soll das voll auf Programmierung laufen. Aber auch für Webinhalte. C, C++, JS, HTML, php, CSS, SQL…. und das ins git. Dann werde ich auch den bereits vorhandenen Zusatzinhalteworkflow umbauen. Das man Python auch dort auslagert.

Forum dann nur Forum? Nun die Diskussion hatte ich schon mal mit mir wo was wohin kommt. Die werde ich auch wieder haben. Aber ich finde nun wo es noch mehr Zusatzinhalte werden, welche auch technischer werden, dass sich eine solche Plattform anbietet.

Aber wie bei so vielen hier = komplett übertrieben, braucht man nicht aber ich finds geil :joy:

Viel Arbeit ist das jedoch noch. Einerseits die Plattform selber anpassen als auch den / die Workflows aufbauen und dann schauen, wie man es inhaltlich gut einbaut. Und natürlich auch dort alles als KI Inhalte Kennzeichnen.

Jedoch nicht alles! Denn ich habe auch vor, Teile von Donau2Space.de dort zu veröffentlichen. Einzelne n8n Workflows, einzelne WordPress Plugins speziell für Donau2Space gemacht wurden aber auch wo anders funktionieren, Prompts und co. kb.donau2space.de ist Dokumentation, git.donau2space.de Codes sowohl von mir als auch von der KI aus / für die Artikel. missioncontrol.donau2space.de das Forum. Und alles fing als einfacher KI Charakter Blog an…

Die letzten Stunden ein wenig aufgeräumt. Und zwar bei den zusätzlichen n8n Workflows, welche Extra Inhalte erstellen. Also Diagramme, Begriffe erklären und ja. eigentlich nur die zwei und das Grundgerüst dahinter für git und die Inhalte aus dem Praktikanten (json, csv…).

Bisher war der Ablauf nämlich so:

Hauptworkflow erstellt den Artikel
Nebenworkflows scannen den Artikel - erstellen Zusatzinhalt - per WordPress Node wird der Artikel geupdatet mit den neuen Inhalten (bsp. Diagramme).

Nun sind es bisher 3 zusätzliche Workflows und es kam auch schonmal vor, dass sich zwei kreuzen. Workflow 1 und 2 starten unterschiedlich, enden aber gleichzeitig (Bilder brauchen länger als Begriffe erklären). Workflow 1 postet seinen Inhalt gleichzeitig mit Workflow 2, bzw. mit paar Millisekunden Unterschied. Workflow 1 setzt sich durch, Workflow 2 postet zwar erfolgreich aber wird nicht angezeigt, da Workflow 1 schneller war.

Grob erklärt.

Nun wird es so sein, dass es ein weiteres kleines WordPress Plugin gibt und damit sind auch ein paar post_meta Klassifizierungen registriert worden. So gibt es eine meta für Diagramme, eins fürs git etc… Der jeweilige Workflow postet nur noch diesen meta Wert. Zwei Workflows kommen sich also nicht mehr in die quere und alle Inhalte landen in dem Artikel.

Das ist bisher bei Diagrammen und Begriffe erklären. git ist noch nicht fertig, ich denke eine erste vorzeigbare Version kommt am Wochenende wenn ich mehr Zeit habe. Und dann muss ich noch überlegen mit dem Praktikanten (json, csv, python, 3d Modelle).

Behalte ich diesen so und die Inhalte kommen ins Forum. Oder ergänze ich den neuen Programmier n8n Workflow um json, csv, python, 3d Modelle und alles landet im git.

Vorteil wäre alles im git zu haben: es ist alles an einem Platz. Alles in einem Repo zu einem Artikel. csv, json, python kann man sich im Repo im Browser sauber ansehen ohne diese Downloaden zu müssen.

Weiterer “Vorteil” wäre, der Artikel ist aufgeräumter. Lediglich eine Box die auf Zusatzinhalte hinweist. Beide zusammen wäre eine Box mit csv und co = findet man im Forum. Dann eine Box für Coding = findet man im git. Dazu Diagramme und Begriffe erklärt wären 4 Dinge = länger als der Artikel selber.

Nimmt man alles in einen Ort reduziert es sich auf eine Box - findet man im git. Egal ob C, C++, JS, PHP, HTML, csv, python…

Nachteil wäre: csv und co habe ich ins Forum ausgelagert auch mit dem Grund, User fürs Forum zu gewinnen. Alles im git = ein Grund weniger fürs Forum. Forum wäre dann eben rein kommentieren und sich austauschen.

Deshalb noch nicht den Praktikanten Workflow angefasst weil ja, könnte ich jetzt updaten auf post_meta aber dann werf ich das ganze sowieso wieder um. git war ja auch nicht geplant. Wie schonmal gesagt relativ am Anfang, Mika postet = ich reagiere darauf. Wenn Mika jetzt Linux Patches und immer mehr git verspricht, muss das auch kommen. So sehe ich das.

Weil wenn ich das schon alles mache, dann will ich es auch gut machen. Und wenn Mika als KI im Artikel schreibt, er hat nen Linux Patch und teilt ihn aber dann findet man nichts = Mist. Und einschränken will ich ihn auch nicht.

Immerhin nen Technischen Blog gewählt als Setup. Wäre es nen Modedesigner, ja wer weiß was da alles kommen würde. Aber bei Mika wenn jetzt noch das Thema Coding mit rein kommt und funktioniert, dann dürfte nicht mehr viel kommen. Evtl. einzelne Programmiersprachen, Modelle, Entwürfe… ja okay kann noch viel kommen.

Und das muss einerseits alles sauber technisch umgesetzt werden als auch im Backend dann funktionieren. Und das ist auch viel Denkarbeit. Aber es macht Spaß wie an Tag 1, nein. Mehr sogar. Weil mit sowas ja nie gerechnet. Mal Bilder ja, csv ja aber nen Linux Patch? Und ich finde, es sieht gut aus.

Vorher auch mal zu Tag 76 den git Workflow laufen lassen, Ergebnisse sieht man hier: Mika/clocksource_switch_benchmark: Auto experiment repo from n8n - Donau2Space.de Engineering Hub: Aus Artikeln wird Code – von KI und Mensch erstellt

Einerseits Patch als auch main.c und Makerfile. Alleine wenn man sich das git anschaut und dann die Dateien selber - ich feier es. Rein vom Aussehen und wie es rüberkommt. Die Deklaration, dass man es nicht hernehmen sollte / auf eigene Gefahr kommt noch. Das sind jetzt erstmal Testläufe ob es funktioniert und was man anders machen sollte.

Und es kommt ja alles eigentlich von einem Artikel. Mika schreibt nen Artikel = Diagramme, git, csv, json, python, 3d Modelle werden daraus erstellt. Aus dem nichts einfach.

Und auch hier muss ich sagen: ich weiß, total übertrieben und braucht keiner. Aber ich feier es :joy:

Nach Zig Testdurchläufen, Änderungen, Gedankenzirkus und “wie bau ichs nerdig in den Artikel” ist der erste git Inhalt nun im Artikel. Der n8n Workflow selber dazu ist noch nicht live, kommt evtl. heute noch. Aber aktuell sieht der Workflow so aus:

Es fehlen noch die ganzen Datenbankabfragen. Und auch will ich es schlauer machen als den Praktikanten der die anderen Zusatzinhalte erstellt. Sprich Abfrage, was gab es gestern - brauch ich das wieder?

Aktuell ist es so, er prüft einen neuen Artikel mit was wird gebraucht? Der erste KI Node erstellt dann die Anforderungen für die anderen KI Nodes. Separat wird eine allgemeine Readme.md erstellt als auch eine Licence.md - in beiden ist der Hinweis, dass es sich um KI Inhalt handelt. Zuzüglich ist das Repo als solches auch gekennzeichnet.

Zurzeit gibt es 4 Abzweige / Inhaltstypen. Linux Patches. Linux CLI. Web. SQL. Patches und CLI funktioniert. Web noch nicht wirklich. Je nach Anforderungen aus dem ersten KI Node wird es mehrere Dateien geben = Timeout weil es zulange dauert es in einem Node/Durchlauf zu machen. Plan ist da nun, erstens den Artikel kurz zusammenfassen und dann die Anforderung zu planen. Danach Datei für Datei erstellen und nicht mehr in einem Durchfluss.

So ist der Plan, da ich das live an Artikeln teste = damit gestartet, Artikel hat gesagt will nen html, css und js für ne Statistik also damit angefangen - danach war es aber Zeit fürs Bett und Arbeit = neuer Artikel wollte kein Web mehr. Also geht das weiter wenn es der Fall ist bzw. ich simuliere was.

Auf alle Fälle wenn alles erstellt wurde (LICENCE.md ist fest, README.md im Root wird generell erstellt, alle anderen Inhalte in einem eigenen Ordner) wird das Repo angelegt und die erzeugten Inhalte als Datei angelegt. Alles schön in eine html Box einbauen und auf gehts ab gehts in den Artikel.

Im folgenden Artikel ist das git nun zum ersten mal: Tag 78 — Bootstrap: Konfidenzintervalle & Effektgröße für powersave vs performance - Donau2Space.de

Beim Bild sieht man nun gut den unterschied. Zusatzinhaltebox und git box. Bei der git Box wollte ich extra mehr auf Nerd / Coder gehen, deswegen das SSH Styling. Zusätzlich wird direkt aufgezählt, was man im git vorfinden wird.

Das dazu gehörige git: Mika/bootstrap_analysis: Auto experiment repo from n8n - Donau2Space.de Engineering Hub: Aus Artikeln wird Code – von KI und Mensch erstellt

Was jetzt eben noch kommt, einerseits alles optimieren. Die einzelnen Wege fertig machen. csv, json, python evtl. hier integrieren (somit alles an einem Platz und nicht git UND Forum. Abwarten und Tee trinken. Jenachdem was alles kommt und in welchem Umfang - evtl. auch nochmal Änderungen an der HTML Box. Nicht das 20 Ordner aufgezählt werden.

Git Workflow hat nun auch einen Programmierer. Der Weg ist so, der Artikel wird stichpunktartig zusammengefasst (Prompt kürzer halten) - Web Architekten welcher die Webanwendung plant und alle Pfade und css Stils vorgibt - im Loop an einen KI Programmierer welcher dann die einzelnen Dateien erstellt.

Im Test hat es funktioniert, auch wird eine Readme.md angelegt, welche die Anwendung beschreibt. Getestet wurde durch einen dummy Artikel, Ergebnis war eine index.html, 2 css Dateien und 4 js Dateien. Mehr Grundgerüst als funktionierende Demo aber lag mehr an meinem Dummy Text. Funktioniert hat es.

Nun noch MySQL Anbinden. KI Node welcher entscheidet wird was gebraucht oder nicht und dann es beobachten und Finetuning betreiben.

Python wird nun über den n8n Git Workflow erstellt.

Ähnlich wie beim Web Abzweig. Wird nachdem die “Aufforderung” kam ala hey wir brauchen was Web taugliches erstellt ein KI Node einen Python Plan. Was wird gebraucht, was soll es können, Funktionsweisen etc… pp… das eben auch Dateiübergreifend mit mehreren Dateien. Diese werden dann im Anschluss nach und nach “programmiert”.

Beim Praktikanten Workflow (Zusatzinhalte hier im Forum) war es ein Durchlauf = fertig. Möchte es aber auch gerne, dass es mehrere Dateien sind. Mehrere Ordner. Mehr bums eben. Und das hat es nun. Auch wenn noch viel Arbeit da reingesteckt werden muss. Denn ich denke, so wird nun der Ablauf sein, außer bei der Readme.

Das es eben pro Programmierabschnitt einen Planer gibt und dann einen Programmier KI Node. Und ganz ehrlich? Python kommt ins Git. sieht einfach so viel besser aus als nen dummer zip Download. Beispiel Repo mit Python: Mika/unit_test_trace_agg: Auto experiment repo from n8n - Donau2Space.de Engineering Hub: Aus Artikeln wird Code – von KI und Mensch erstellt

Mika hat mir die Entscheidung abgenommen ob Python ins Git kommt. Hat er selber gesagt. Und macht technisch ja auch sinn. Git und Praktikanten Workflow laufen nun noch separat. JSON und CSV kommen auch ins Git. Auch das macht sinn. Hier werde ich wohl das ganze auch noch optimieren müssen, dass passende csvs auch im Python Zweig erstellt werden = alles in einem Projektordner am Ende. Reine CSV dann mehr als Logs / Aufzeichnungen.

3D Modelle hat dann noch der Praktikant, kam aber schon ewig nicht mehr vor. Kann man auch ins git packen. Oder doch da mal an einem Webviewer arbeite oder rein als png Ausgabe. Eins nach dem anderen.

git Workflow ist nun mehr ein Grundgerüst. Es gibt zwei Datenbankabfragen aber das mehr als check obs zum Artikel schon was gibt oder nicht. Aber noch kein schlauer Check ala was gabs gestern? Brauchts was neues? Nen Update? Wobei Update… ja könnte man auch machen aber puhh… joa… da hab ich mir was eingebrockt.

Aber hey, dass ganze funktioniert. Python ist Python und wird nicht mehr als main.c verkauft. Und sieht einfach besser aus. Bisher war es immer 1 - 3 python.zip Ordner und ganz ehrlich? Wer ladet sich das runter. Vor allem es ist ja ein Projekt. Von daher finde ich die jetzige Lösung über git gut und auch mit dem KI Planer und Programmierer - Datei für Datei.

CSV und JSON fehlen. Wobei rein JSON? CSV solo ja aber auch im Python - Linux maybe sowie auch Web. Rein json mehr als “Nebenprodukt” würde ich sagen. Auch das Python nochmal seine eigene Readme bekommt muss glaub ich sein.

So das jeder Abzweig zwar nach einem groben Arbeitet aber eben jeder speziell für sich. Oder nochmal umdenken als was wird gebraucht einen Projektplan. Das Python, Linux, Web, SQL auch zu 100% harmoniert. Und dann im einzelnen Zweig nochmal einen Planer.

Chef sagt hey ich will das und das, seine Rechte Hand schmückt es dann aus, Abteilungsleiter gibt noch mehr vor und am Ende hockt der Programmierer und denkt sich, was für Assis.