Wie Mika und Donau2Space funktioniert

Erster Urlaubstag und schon gehts los mit den Arbeiten.

Zum Start gibts ein kleines WordPress Plugin, geschrieben mit Hilfe von ChatGPT. Das Forum hier ist mit Discourse erstellt. Es hat bereits eine Integration bei n8n, womit die ganzen Workflows erstellt werden. Zudem gibt es ein Discourse WordPress Plugin. Veröffentlichter Artikel wird direkt als Thread hier im Forum gepostet.

Am Anfang gab es nur die normalen Logbuch Artikel. Wurden diese kommentiert, landete alles in der Datenbank für Mika. Nun gibts auch alle drei Tage Private Artikel. Werden diese kommentiert, landeten sie in der selben Datenbank. Es wäre also ein durcheinander. Private Kommentare werden in Logbuch Artikel einbezogen und genauso andersrum.

Das neue WordPress Plugin ist ein Zusatz zum Discourse WordPress Plugin. Ich kann nun Discourse Tags / Schlagwörter in WordPress je nach Kategorie definieren. Privatlog Artikel erhalten im Forum den privatlog Tag. Alle anderen den logbuch Tag.

In Discourse kann man Webhooks erstellen, womit die Kommentare / Beiträge an n8n geschickt werden. Und diese kann man nach Kategorie und Tags definieren. Ergo gibt es nun einen Webhook für Logbuch Artikel und einen für Privatlog Artikel. In n8n gibt es dann zwei Workflows, welche getrennt die Kommentare bearbeiten / weitergeben an die Datenbank, wo es zwei Tabellen dafür gibt. Beide gleich aufgebaut, nur eine ist für Logbuch Kommentare, die andere für Privatlog Kommentare.

Im Logbuch Workflow bekommt Mika die Logbuch Kommentare. Im Privatlog Workflow, die Privatlog Kommentare.

Somit ist alles sauber getrennt.

Im Anhang einfach mal das WordPress Plugin zum Taggen von WordPress Artikeln in Discourse je nach Kategorie, evtl. kann es auch jemand anders brauchen. Es ist nicht speziell auf mich / Donau2Space zugeschnitten. Nur der Name, den kann ja jeder ändern. Im WordPress Admin unter Einstellungen findet man dann den Menüpunkt Discourse Tag Automapper. Hier ein Fallback angeben (Standard logbuch) ansonsten je nach Kategorie ein spezieller Tag.

Voraussetzung ist das man das offizielle Discourse WordPress Plugin nutzt, ansonsten macht das Plugin hier auch null Sinn. Ganze besteht aus 276 Zeilen Code, nur eine Datei und es funktioniert. Siehe dieses Forum als Beispiel :joy:

d2s-discourse-map.zip (3,8 KB)

Ab sofort werden die Kommentare separat verarbeitet, wie im Posting davor gesagt.
Threads mit dem Tag logbuch - Kommentare landen in Logbuch Artikel
Threads mit dem Tag privatlog - Kommentare landen in Privatlog Artikel

Somit gibts kein Mischmasch, Technik bleibt Technik und Privates privat.

Neben der Neuerung mit den Kommentaren von heute Mittag / Nachmittag gibts nochmal was neues. Ein Gehirn für Mika. Mika bezieht aktuell sein Wissen über die letzten Artikel, Open Loops, Tagesaufgabe und einem Kurzzeitgedächtnis was sich verblasst.

Das Gehirn, in MySQL einfach als “brain” betitelt, ist mehr für Basiswissen / Kontext was Mika ausmacht. Geburtsort, Geburtsjahr, Schule, Typ, Hobbys, Werte… was ein Mensch auch nie vergessen wird. Vieles davon wurde bisher manuell im Prompt vorgegeben. Nun ist das zentral in einer Datenbank. Und es gibt einen weiteren Workflow, welcher Artikel analysiert und schaut - gehört davon was ins Gehirn? In der Regel nicht, nur wenn dann besonderes. Was du und ich auch nie vergessen würden. Solche Dinge. Keine Alltagssachen oder dergleichen.

Die Struktur wächst von Tag zu Tag. Auch der Workflow wird immer größer. Meist nur MySQL Nodes am Anfang, die den Input liefern. Danach lasse ich es bewusst schlank, vor allem am Ende auch. Extrahiere es in separaten Workflows, die teils auch erst in der Nacht laufen. Einerseits um es wartbar zu machen, dass wenn Fehler passieren / nen Node hängen bleibt es keine Katastrophe ist aber auch nicht vollzustopfen das ganze.

So sieht aktuell z.B. der Hauptworkflow aus - sowohl der für Logbuch als auch Privatlog Artikel. Aufbau im Prinzip gleich. Privatlog Workflow hat 1-2 weniger MySQL Nodes als Input. Rest ist aber das selbe.

MySQL Nodes sind es nun 11 Stück, der 12te ist schon in Planung. Ganze geht nun über zwei Merge Nodes auf einen Merge Node, bevor es weitergeht.

79kb groß ist die heruntergeladene json Datei, welche den Workflow beinhaltet. Und besteht aus 1866 Zeilen Code. Darunter sind eben auch Code / Function Nodes im n8n Workflow, wie Assemble Context welcher nach den MySQL Nodes ist und die Daten aufbereitet und sie an die weiteren Nodes liefert. Das sind schon einmal 277 Zeilen Code.

Wenn der Workflow gestartet wird, reine Laufzeit ohne die Wartezeit, dauert es rund 3,5 Minuten. 1/3 der Zeit, braucht alleine der KI Bild Node um das Artikelbild zu erstellen. Im Vergleich, der KI Node welcher den Artikel schreibt braucht 9 Sekunden. Die zwei KI Nodes davor, die den Artikel / Tag aufbereiten brauchen zusammen rund 40 Sekunden. Der Node der den Artikel schreibt bekommt also schon ein genaues Grundgerüst vom Artikel und muss es nur noch schön machen.

Kostentechnisch sind wir bei etwa 0,70 Euro pro Artikel. Im Preis inkludiert ist der Artikel, Artikelbild, Social Media, Social Media Bild, Forenpost, Podcast, Artikel aufbereiten für die Datenbank und den nächsten Tag sowie alle dazugehörigen Workflows im Hintergrund wo die KI ihren Platz hat.

Heute die Hinter die Kulissen Seite geupdatet. Deshalb die Werte noch im Kopf. 19 Workflows sind es nun bei 27 KI Nodes (Zahl ist nun schon höher :roll_eyes: :shushing_face: ). Hier teste ich auch welches KI Modell für welche Arbeit. Für einfache Analysen oder Werte bestimmen, reichen ältere KI Modelle oder auch langsamere. Wenn die Antwort einfach nur ja oder nein sein muss (Beispiel Kommentare, Spam oder nicht). Da sind die Kosten dann auch sehr gering, 0,000x - 0,00x Euro. Artikel, Bild oder auch Podcast habe ich einfach den Standard, es soll gut sein. Alles andere macht keinen Sinn. Da kommt dann eben GPT 5 zum Einsatz oder das neueste GPT Image Modell. Qualität kostet eben.

Aber 0,70 Euro pro Artikel (mit allem drum und dran) immer noch voll okay. Sagen wir der Monat hat 30 Tage, dass wären 30 Logbuch Artikel und 10 Privatlog Artikel sind wir bei 28 Euro.

Ganze ist auch ein Experiment für mich. Den Server nur geholt um mit n8n und KI spielen zu können. Dann kamen die ersten Blogs wie Quadratlatschn.de die ja echt Basic sind (Ich sende Thema ein, KI schreibts im Blog Charakter Stil). Donau2Space.de ist dagegen mein größtes Projekt. Von den Workflows her und den KIs. Die ganzen Tool / Helper Workflows die es nur gibt, damit der Hauptworkflow (Mika) so ist wie er nun ist. MySQL im Hintergrund um Daten zu speichern. Eigene WordPress Plugins, meist einfache, am Start ums perfekt zu machen das ganze.

Heute sind wir bei Tag 15, mal schauen wo wir bei Tag 30 sind. Oder bei Tag 365 :joy:

Tag 16 und der Podcast ist nun angepasst, bzw. ab dem heutigen Artikel hat er eine neue Stimme unser Mika. ElevenLabs - lange darüber nachgedacht, viel getestet und heute das Abo dafür abgeschlossen. ElevenLabs hat in der Hinsicht einfach eine größere Stimmenauswahl und bessere Anpassungsmöglichkeiten als OpenAI TTS HD 1.

Im Anhang einfach mal den Podcast von gestern mit alter und neuer Stimme.

Bewusst eine neue Stimme genommen, die nicht “perfekt” ist. Leichtes lispeln, bayrischer Hauch - ich finde es passt zum Charakter. Bevor die Audio erstellt wird, fliest der Artikel nochmal durch einen AI Node der den Text aufbereitet. Also nicht nur stumpf den Artikel vorlesen, sondern den Artikel in Sprecherlage bringen - wie mans in echt auch sagen würde. Deshalb gibts dezente Unterschiede zwischen dem Artikel und der Podcast Folge.

Das ganze lasse ich nun ein paar Tage testen und wenn alles passt, werden die alten Artikel neu vertont, dass alles zusammenpasst. Wären ja nur 14 Artikel zum nach vertonen, halb so schlimm. Aber im Vergleich zur “alten” Stimme finde ich es um einiges besser.

Alte war doch mehr “Ki” und hier und da ein Englischer hauch in der Stimme. Auch die Aussprache ist beim neuen besser. Im Grunde sind beide eigentlich gut, es sind eben die Details, wie immer…

Neu:

Alt:

Erste Podcast Episode kam gerade online mit der neuen Stimme von ElevenLabs. Es klingt menschlicher. Als würd da einer vorm Mikro hocken und den Artikel vorlesen. Weniger KI mäßig. Er klingt zwar jetzt nicht unbedingt wie ein 18 jähriger aber ich glaub wir wollen auch keinem zuhören der noch den Stimmbruch bekommt oder hat. Von daher passt das schon und eine deutliche Verbesserung.

Für alle, die sich auch für ElevenLabs interessieren. Ich habe den Creator Plan, man hat also 100.000 Credits inklusive. 5.266 Credits habe ich verbraucht für die Folge hier im Forum (diente mehr als Test) sowie die aktuelle Tag 16 Folge. Tag 16 der Podcast Text hatte 523 Wörter mit Intro und Outro.

Voice Settings:

{
  "stability": 0.46,
  "similarity_boost": 0.83,
  "style": 0.63,
  "use_speaker_boost": true,
  "speaking_rate": 1.02
}

Laufzeit rund 7 Sekunden für den ganzen Workflow, mit schauen ob neuer Artikel, Artikel holen, AI Node Text umschreiben, vertonen, Datei umbenennen, WordPress Upload und Artikel die Folge anhängen.

Der andere Artikel hatte ungefähr auch so eine länge also kostet eine Episode 2.633 Credits in etwa. Sagen wir bei 40 Artikeln mit Podcast sind das 105.320 Credits pro Monat. 100.000 Credits sind inklusive beim Creator Plan für 22$. 5.320 Extra Kredits kosten dann 1,60$. Umgerechnet in Euro sinds dann etwa 21,95 Euro pro Monat für 40 Artikel/Vertonungen je Monat.

Natürlich könnte man nun hergehen und sagen, jede Vertonung darf nicht mehr als x Wörter haben, so das man im Limit bleibt aber das wäre ja langweilig. Und klar sind das Extra Kosten. Vor allem muss man auch sagen, die Seite hat noch keine Leser. Auch keine Monetarisierung. Ganze ist erstmal nur für mich.

28 Euro also für die KI. 22 Euro für die Vertonung. Glaub Server war bei 60 Euro. Sind wir also bei 110 Euro pimaldaumen pro Monat was Donau2Space kostet. Wobei man die Serverkosten ja nicht nur dem Projekt hier zuordnen kann, weil andere Projekte laufen ja auch noch darauf.

Nebenbei auch getestet die Podcast Episoden als Video zu rendern für YouTube. Nur mit dem Artikelbild als Standbild. Ganze per ffmpeg auf dem Server. Audio geht bissl über 3 Minuten. CPU direkt auf 100%, Qualität runtergeschraubt, 2fps fest, 720p - reicht ja nur für Audio, CPU bei 70% und es dauerte ewig. Ganze nun abgebrochen.

Hätte das ganze schon gerne bei YouTube, dass man dort auch den Podcast findet. Aber da machts dann glaube ich mehr Sinn, dass ganze lokal zu rendern, geht um einiges schneller und frisst nicht die Ressourcen vom Server. Wobei es ja dann nicht ganz zum Projekt passen würde wo alles automatisiert ist.

Jetzt erstmal noch an ElevenLabs schrauben, bissl Feintuning betreiben (Aussprache Fachbegriffe, JSON zb). Paar Episoden abwarten und wenns mir gefällt, die alten Artikel neuvertonen und entweder dann was neues finden zum umwandeln in mp4 oder ich machs per Hand :hot_face:

Aber das mal so als Background Infos zu ElevenLabs, bisher wars für mich auch ein Rätsel was das genau kostet. Lag zwar in dem Bereich nun meine Schätzungen aber so hab ich nun genauere Infos mit denen ich Arbeiten kann. Bzw. ich weiß das es finanziell in Ordnung geht.

Zu Beginn hat man ja den Free Plan bei ElevenLabs wo man 10.000 Frei Credits jeden Monat hat - dies unbedingt hernehmen. Stimmen testen, Probetext vertonen lassen, bissl rumspielen mit den Werten. Damit man ein Feeling bekommt, passt das nun?

Interessant wäre es nun auch zu wissen, bekommt man die Free Credits auch im Paid Plan? Dann bräuchte ich keine Extra Credits. Aber ich glaube nicht.

Was ich schade finde, es gibt den Creator Plan für 22$ mit 100.000 Credits. Der nächste ist der Pro Plan für 99$ im Monat mit 500.000 Credits. Ein Plan in der Mitte wäre nicht verkehrt. Mit 200-250.000 Inklusiv Credits. Aber naja… liegt nicht in meiner Hand.

Zum Abend gab es noch ein paar CSS Feinschliffe in der Sidebar des Blogs. Und eine kleine Neuerung. In der Sidebar findet man nun den Link zum Änderungsprotokoll. Ich gehe ja recht offen damit um, dass Mika eine KI ist und es kann auch passieren, dass mal Fehler passieren. Ob bei der KI oder Technisch. Ob gewollt oder nicht. Hier Liste ich eben auf, was manuell geändert wurde an den Artikeln. So das man alles besser nachvollziehen kann. Theoretisch steht auch alles hier in dem Thread, aber dieser ist ja inzwischen doch recht umfangreich.

Heutige Anpassung. Umzug des Newsletter Dienstes, bzw. wurde geclont. Bisher Listmonk genutzt was für mifupa.com läuft (den einzigen Blog wo ich manuell texte). Ging auch für Donau2Space.de, einzige was mich aufgeregt hat, die Opt In Mails kamen von der mifupa Mail Adresse. Dies konnte man auch nicht ändern. Newsletter selber ging dann von der Donau2Space Mail Adresse.

Also das System geclont, bzw. neu installiert als Subservice von Donau2Space. Ich habe auch überlegt, wie ichs mache mit dem Newsletter Archiv. Die Inhalte die verschickt werden sind ja doch einzigartig. Nicht einfach nur die letzten Artikel aufgelistet mit Link, sondern aus den Zusammenfassungen wird eine eigenständige Geschichte erzählt.

Deshalb gibt es nun die Newsletter Archiv Seite, wo dann die verschickten Newsletter Kampagnen veröffentlicht werden, wie bei Woche 39 in 2025. Es wäre schade die Zusammenfassungen ins Nirvana zu schicken. So haben sie ihren eigenen kleinen Platz, wo sie verstauben können.

Heute ist nicht viel passiert. Mal an nem anderen Projekt was gemacht, bzw angefangen, wird wohl morgen fertig sein - bzw von da aus dann laufen.

Heute bekam ich ein Feedback zu den Artikelbildern von Donau2Space - soll doch realistischere Bilder probieren. Also weg vom man siehts das es KI Bilder sind hin zu - als hätte Mika sie selber Fotografiert. Testbild von den neuen Settings mal im Anhang und dann mal schauen, ob es so bleibt, was man daran noch verbesseren kann.

Originalfoto / Stand Heute sieht man im Tag 18 Artikel. Und so sieht es ab Tag 19 dann aus.

Meine Meinung? Es sieht verdammt gut aus und passt auch zu allem. Podcast Stimme ist realistischer (soll aber ne bessere Suchen… :roll_eyes: :joy: ). Was Mika macht ist realistisch. Also passen auch realistische Fotos, vor allem da es ja auch von ihm ein realistisches Bild gibt in der Sidebar. Ja auch das Mika “Über mich” Foto ist von der KI erstellt worden. Habs also nicht aus Facebook von wem geklaut :joy:

Heute, Tag 20, kam es wieder vor. Mika erwähnt im Artikel, er stelle gerne CAD, Skript und Daten zur Verfügung. Kann er noch nicht, deshalb das ganze wieder “manuell” mit ChatGPT gemacht. Dabei rauskamen folgende Dateien, zu finden im Tag 20 Thread:

  • analyse_ttff.py

  • antenna_mount_v1.scad

  • ttff_sample_2025-10-07.csv

  • README_for_forum.md

Und ein Bild von der Antenne in CAD. Tag 12 war das erste mal wo Mika ähnliches (CSV und JSON) versprochen hat. Und seitdem mache ich mir Gedanken, wie man das am besten umsetzen kann. Es soll weiter realistisch wirken. Auch wenn in echt keine Experimente oder Messungen stattfinden. Ich will auch keine Downloads zur Verfügung stellen, die nur leere Dateien sind. Oder Dummy Werte die nicht zum Artikel passen. Oder Mika sagen lassen, hey ihr findet das im Forum - gibts aber nicht.

Fakt ist, die Downloads bestehen aus Fake Werten/Daten. Aber es soll den Anschein machen, sie sind echt. Es soll einfach zum Projekt passen. Und auch funktionieren. Beispiel .scad Datei. Soll in diesem Fall einen Antennenhalter anzeigen. Auch wenn ich gerade sehe, dass aus der Datei und dem Bild sind zwei unterschiedliche Dinge - aber es funktioniert. Es ist keine leere Datei oder kompletter Mist.

Zeitgleich arbeite ich aber an einem n8n Workflow, welcher das künftig automatisch übernehmen soll. Dieser ist zu, lasst mich nicht lügen, 40% fertig. Jeder Artikel wird analysiert, wird eine Zusatzdatei verlangt? Was wird gebraucht? Und dann geht es auf verschiedene Wege. Je nachdem was Mika “versprochen” hat. Ein Zusatzbild? Eine CSV? Ne JSON? Ein CAD Modell? Tabelle? Berechnungen?

Das schwierige ist hier, ich weiß ja nicht über was Mika morgen schreibt. Oder nächste Woche. Das ganze also so aufzubauen, dass es multifunktional ist. Nicht nur auf eine Aufgabe / Thema wie aktuell Antennen sondern auch für den späteren Verlauf.

Und auch wie man das am besten macht. Artikel auswerten, wird was gebraucht, was wird gebraucht, wenn ja zusätzlich die letzten 2-3 Artikel als weiteren Kontext dazu liefern, daraus die Aufgabe definieren, diese passend bearbeiten das am Ende auch was gutes rauskommt. Und das eben so zu machen, im besten Falle, dass es nicht jedes mal angepasst werden muss.

Das der Workflow also vorbereitet ist auf Aufgaben wie ein zusätzliches Bild, CSV, JSON, Python Skript, CAD Modell. Das kann man gut vorbereiten und wohl auch weiteres in der Art. Aber wie gesagt, keine Ahnung was Mika genau machen / teilen will. Genauso gut könnte es sein, dass er nächsten Monat nen Linux Skript teilen möchte, dass er geschrieben hat. Oder ne Windows Software / Skript, welche er gemacht hat. Oder oder oder.

Auf alles kann ich nicht vorbereitet sein. Aber auf Standard Sachen wie weitere Bilder, CSV, JSON, CAD, Phyton und der gleichen. Das geht alles auch mit n8n, dass ist eben nicht nur Node an Node hängen, KI macht was und fertig, sondern schon mehr Workflow Entwicklung. Mit KI, Codes, Dateien richtig zur Verfügung stellen und allem möglich.

Bei Tag 12 war ich überrascht, heute war ich darauf eingestellt (rechnete aber nur mit CAD) und beim nächsten mal läuft es dann, hoffentlich, voll automatisiert ab und zwar so, dass es funktioniert und auch den entsprechenden Output bringt.

Ist es übertrieben? Definitiv. Braucht man das? Nicht wirklich. Ist es geil? Ja!

Hier gehts schon lange nicht mehr um KI schreibt Tag für Tag einen Blog, sondern mehr, was kann man alles mit KI daraus machen. Das es realistisch wirkt. Das es einen Umhaut. Das man nicht daran denkt, wenn man die Seite das erste mal aufruft, ist das echt oder KI?

Und theoretisch… wir sind erst am Anfang mit Donau2Space.de:shushing_face:

Arbeiten am Zusatzinhalte Workflow gehen voran. CSV werden nun automatisiert erstellt. Und Bilder.

Sprich der Workflow scannt die neuen Artikel und ermittelt - wird was zusätzliches gebraucht. Und genau das soll dann auch gemacht werden. Mit dem Kontext der letzten 3 Artikel, so das die Zusatzinhalte auch passen.

Der neue Workflow hat entschieden, dass Mika heute eine csv Datei, CAD Modell und Python Skript wollte. Obwohl ers nicht gesagt hat, bzw. eben “Ich stelle euch das rein” sondern es war mehr “Ich verlinke die Ergebnisse und Testdatensätze, sobald alles ausgewertet ist.” im Tag 21. Aber nun gut, der Zusatzworkflow ist noch lange nicht fertig und das muss dann noch mehr definiert werden. So das es nicht zu jedem Tag Zusatzinhalte gibt - oder doch? Ich weiß es nicht…

Mal die generierte CSV Datei und ein Testbild - wurde nicht angefordert aber muss den Pfad ja auch erledigen.

ttff-measurements.csv (2,7 KB)

Als nächstes geht es dann an CAD und Python. Und da bin ich gespannt, wie man das am besten automatisiert umsetzt. Weil es soll zum Artikel passen, dass machen was Mika im groben dazu sagt und im besten Falle auch noch funktionieren. So das man sich das CAD Modell eben anschauen kann und das Python Skript auch was macht, ohne das irgendwas crasht dabei.

Erst wenn dann alle Wege (CAD, CSV, JSON, Bilder…) funktionieren, mache ich mir mal Gedanken, wie man es am besten weiter macht. Wenn es nur ein Inhalt ist - braucht es keine zip. Sind es mehrere Inhalte - wäre eine zip gut. Oder je nach Inhalt eben. Wo teilt man es? Auswerten was Mika sagt (Stells in den Artikel, poste es in den Thread)? Oder direkt ins Forum? Als Anhang im Artikel? Beides? Oder ich bekomme es und hänge es manuell passend an? Qualitätskontrolle. Bilder, CSV und so ist ja ohne Probleme teilbar. Python Skript? Oder einfach nen Disclaimer dazu - auf eigene Gefahr :joy:

Dann Aufarbeitung in der Datenbank, sozusagen als Nachweis was gemacht wurde. Reicht mir nen Artikel - nix gemacht vs Artikel - Zusatzinhalt erledigt vs Artikel - csv, png, json gemacht.

Es gibt noch viel zu machen. Viele Gedanken, wie man es am besten macht. Feintuning wann was und wie gemacht wird. Aber ich hab Bock drauf und man sieht ja auch, es funktioniert.

JSON und CAD Modelle werden nun auch automatisiert angefertigt als Zusatzinhalte.

Für beides alleine etwa 2-3 Stunden dran gesetzt. Beides hat gefuchst. CAD war bisschen zickig. In OpenSCAD (Windows Software) konnte man es sich zwar ansehen, in einem Online Viewer aber nicht. War dann eine Mischung aus Google und ChatGPT wie man es am besten macht. Letzter Test - es funktioniert. Ich denke. Inkl. Readme Datei, wie es sich gehört.

Ganze mal als zip im Anhang von der Demo & Tag 21 als Basiswissen.

testscad.zip (3,4 KB)

Die angefertigte json Datei habe ich jetzt nicht - in einem Testrun wollte er eine json, im nächsten nicht mehr. Aber im Vergleich zu den “manuell mit ChatGPT” angefertigten Zusatzinhalten mit dem was nun automatisiert gemacht wird - Tag und Nacht.

Bei den ersten male habe ich ChatGPT eben gesagt, hey der Artikel - mach mal, dass es gut ist. Ich fands auch gut. Aber nun hat der Workflow einen tieferen Kontext und weiß genauer, was Mika will. So gibt es nun eben auch mehrere scad Dateien (CAD Modelle), wie es auch Mika im Artikel anspricht. Also auch hier realistisch und passend.

Morgen greife ich dann Python an. Glaube wird auch komplexer.

Wichtig ist mir eben, dass es unabhängig ist vom Status was Mika macht. Ob heute Antennenhalterungen oder nächstes Jahr Raketen. n8n Workflow für Zusatzinhalte das mehr nen Schweizer Taschenmesser ist.

Direkt noch eine kleine Bastelei, welche ich seit Tag 1 nutze - Technisch bei Antennen, LoRa (erste mal hier gehört), CAD und co. bin ich persönlich raus = hab ich kein Plan von. Aber ich finds thematisch cool. Deswegen gibts die Seite ja mit dem Thema. Also lasse ich mir von ChatGPT meist alles erklären oder frag nach. Erstens weils mich interessiert, zweitens will ich auch schauen, ob Mika Mist redet oder ob es passt.

Und ich denke, manchen wird es genauso gehen. Die Donau2Space.de weniger besuchen, weil sie selber basteln, sondern schauen möchte, was ein KI Blog alles kann. Oder man Bastler ist aber doch Fragezeichen im Kopf hat, wenn man nen Mika Artikel gelesen hat.

Aus diesem Grund findet man nun unter jedem Artikel (unter der Newsletter Box) drei Links zu ChatGPT, Grok und Perplexity mit ausgefüllter Erstnachricht. Drauf klicken - absenden - KI erklärt worum es im Artikel geht.

Der n8n Workflow welcher Zusatzinhalte erstellt ist nun soweit fertig. Folgendes wird nun dynamisch und automatisch erstellt:

Bilder, SCAD / CAD Modelle, CSV, JSON und Python Skript.

Vom Prinzip her wie schon angesprochen. Jeder Artikel wird gescannt ob Zusatzinhalte gebraucht werden / Mika es angesprochen hat (Feintuning muss noch gemacht werden, falls ich nicht will, dass es bei jedem Artikel Zusatzinhalte gibt), wenn ja welche Inhalte. Und wenn eins oder mehreres davon schon seinen Weg hat (Bild, json, csv, CAD oder Python) wird es automatisch erstellt. Als Grundlage dient das was Mika im neuesten Artikel gesagt hat + die letzten 2 Artikel (also drei gesamt) als Kontext, damit sich die KI auskennt um was es geht.

Scad und Python wird direkt als zip verpackt da es sich um mehrere Dateien handelt. csv, json und png bisher einzeln.

scad.zip (3,3 KB)

measurement-data.csv (3,6 KB)

20251010-donau2space-rc-spice-antenna-coupling-model.v1.0.json (6,7 KB)

bundle.zip (3,1 KB)

Wird ein Weg / Datei / Format “verlangt”, was nicht seinen Weg im Workflow hat, wird es als Fallback an mich per Email geschickt, so das ich das dann dementsprechend einbauen kann für die Zukunft.

Nun heißt es, weiter Gedanken machen. Wie Zusatzinhalte einbauen? Mika hat halt in den Artikeln schon paar mal was unterschiedliches gesagt. Ich packs in Thread, in den Artikel und sogar einmal Github. Am einfachsten wäre ein Zentraler Ort. z.B. in Mikas erster Antwort im Forum. Threadstarter ist ja der Artikelausschnitt und dann den Mika “Leute kommentiert” Post. Hier einfach dazu editieren.

Oder und in den Artikel. Und wenn nur Forum, dann im Artikel auch verlinken. Dann kommt es wohl auch drauf an, um was es geht. Bild kann man auch gut so im Artikel einbauen als Zusatz. zip ist trockener. Wobei bei den CAD Modellen, sind aktuell scad Dateien, welche man sich Online ansehen kann als auch in OpenSCAD aber ich würds auch geil finden, die Modelle visuell einzubauen. Aber dazu muss ich den CAD Pfad erst noch optimieren, manche Dateien gehen nicht, manche doch. Aber manches sind glaub ich mehr Settings Dateien - von CAD keinerlei Ahnung.

Workflow für Zusatzinhalte sieht aktuell so aus, diesmal auch mehr Mühe gemacht beim Namen verteilen der einzelnen Nodes.

Oben Links fliegt noch der MySQL Node rum, welcher am Ende in der Datenbank den Satz anlegen soll nach der fertigen Bearbeitung - wenn es eine Bearbeitung gegeben hat.

Und nun muss ich für mich abklären, wie ich es haben möchte. Ich kann es so lassen, bzw. noch paar Feinarbeiten und MySQL Node am Schluss - Dateien füge ich manuell hinzu. Oder Upload ins Forum als Edit unter seinem Post. Oder Upload auf den Blog. Oder oder oder. Aber vom Prinzip her ist es fertig und funktioniert.

Für etwas, was sich wohl nie einer außer mir genauer anschauen wird. Bilder vielleicht. Aber Python? CAD Modelle? CSV? JSON? Aber ich finds cool und es passt auch irgendwie zum Blog und dem ganzen Projekt überhaupt.

Total übertrieben aber das ganze Projekt ist so gesehen ja auch schon total übertrieben :smiling_face_with_sunglasses: :joy: :face_with_peeking_eye:

Viele Artikel die Mika schreibt ähneln dezent zu den davor. Thematisch ist es nicht gleich. Bzw. nur anders geschrieben. Aber man merkt auch nicht wirklich einen Fortschritt. Bzw so kommt es mir vor.

Gerade den Nudge Workflow geändert. Jeder Artikel wird in einem eigenen Workflow analysiert und eine Tagesaufgabe für den nächsten Tag extrahiert. Die erste Version war ganz schlicht.

Neuer Artikel wird geholt - MySQL Check ob schon Nudge vorhanden - KI Node schreibt Nudge - MySQL Speicherung - fertig.

Nun ist es so.

Neuer Artikel wird geholt - MySQL Check - wenn kein Nudge da - die letzten 3 Nudges werden geholt - es gibt eine kleine Prüfung / Vergleich - Artikel, letzten Nudges gehen an die KI - Nudge wird gespeichert.

Ums besser darzustellen. Aus dem Tag 22 Artikel wurde mit Version 1 folgende Nudge geschrieben:

Morgen: Drucke 0,5 mm und 1 mm Spacer aus PA12, montiere nacheinander und erfasse TTFF-Daten für dein Python-Statistiktool.

Man sieht, Ähnlichkeiten zu den Tagen davor. Version 2 Nudge:

Analysiere TTFF‑Daten: berechne Median, identifiziere Ausreißer, gruppiere nach Spacer‑Dicke und notiere Auffälligkeiten.

Man merkt den Unterschied. Vor allem da sich der Nudge morgen zum dritten mal ähnlich wiederholt hätte.

Erst habe ich überlegt am Hauptworkflow was zu machen aber schauen wir erstmal ob diese kleine Gedankenstütze schon ausreichend ist um die Artikel nicht “gleich” zu haben.

Gerade, erneut, die Hinter die Kulissen Seite angepasst. Zwar erst eine Woche (denke ich) her aber manches passte schon einfach nicht mehr. Wie die Anzahl der Artikel oder Podcast Vertonung nun über ElevenLabs.

Statt einfach hab ich es ein wenig komplizierter gemacht. Mit einem weiteren eigenen WordPress Plugin. Artikel werden separat in MySQL gespeichert (unabhängig von WordPress). Also wird dies direkt aus der Datenbank aufgezählt. Ebenso die MySQL Tabellen und aktive n8n Workflows.

Dazu noch den Text selber dann noch neu gemacht / auf den aktuellsten Stand gebracht.

Theoretisch ne Sache von ner halben Stunde. Praktisch, 2 Stunden und ich bin eher 50% Happy. Erster Plan war Artikel und MySQL Tabellen darstellen - check. Dann kurz geschaut, n8n api - was geht da. Und dann wollte ich alle n8n Workflows aufzählen, sowie auch wie viele Nodes es gibt und was die meisten eingesetzten sind. Einfach um den KI Blog Faktor darzustellen. Tja… nun sind es nur die aktiven Workflows welche den Tag “Donau” haben.

Irgendwas hat da immer gefuchst. Entweder es wurde nichts angezeigt, statt 20 Workflows (2 inaktive) waren es plötzlich 66 (keine Ahnung woher die Zahl gekommen ist) oder hat die Verbindung nicht gefunden.

Deswegen der kleine Switch den Workflows nen Tag zu geben und daran es aufzuzählen. Zwar nicht das was ich wollte, bzw. im zweiten Gedanken wollte, aber ich denke, es reicht. Die Seite “Hinter den Kulissen” soll ja auch eher eine Aufklärungsfunktion haben. Das Mika eben nicht echt ist - aus der vorherigen Version war das auch nicht direkt erkennbar, deshalb musste die Seite geupdatet werden.

Am meisten war es mir eben wichtig, dass die Artikelanzahl aktualisiert wird, ansonsten müsste man regelmäßig die Seite auffrischen. So kann die Seite auch mal für zwei Wochen stehen bleiben, weil es ändert sich so oft etwas, dass es bald sowieso nicht mehr stimmt, was da steht :roll_eyes: :joy:

Neuer Tag und weiter geht die Arbeit. Im Zusatzinhalte Workflow wollte er heute zwei Python Skripte. Also alle Wege in einen Loop, dann kann er von mir aus 20 Bilder, 10 Python Skripte und 5 CSV anfordern. Spielt dann keine Rolle.

Mal langsam vorbereiten auf wie es danach weitergeht. Aktuell wird es danach zusammengeführt. Aber von da aus bin ich noch nicht recht weiter. Also wohin damit - Artikel analysieren, was Mika gesagt hat. Ob Artikel oder Forum. Github hat er mal erwähnt, wäre zuviel denke ich mal, dann zerfleischen mich irgendwelche Coder wenn ich dort KI Inhalte poste die so gesehen nichts bringen / keinen Nutzen haben. Außer das ganze funktioniert doch…

Auch muss ich mir Gedanken machen über das aussehen vom Workflow. In n8n gibts ja die Aufräum Funktion, Workflow, auch wenn er komplexer ist, wird dann schön zusammengesetzt. Bei dem hier… ja funktioniert nicht so richtig. Vermutlich zuviele Loops. Evtl. wenn mehr am Ende reinkommt. Aber bisher ist es nur ein Merge und ein Code Node zum zusammensetzen.

Für den Testlauf gerade, hat er eine CSV, zwei Python Skripte und ein CAD Modell gemacht. Laufzeit bisschen mehr als eine Minute. Kostentechnisch, fällt kaum auf. Cent Beträge. Wo man eben auch sagen muss, ganze ist simple. Nicht von dem was ich möchte, sondern was gerade ansteht. Die CAD Modelle - sind ne Scheibe. Readme Dateien sind kurz und knackig. Phyton Skript hat 136 Zeilen. Paar Leerzeilen, viele kurze Zeilen. KI Technisch gesehen also wenig Aufwand.

Kann sich dann eben je nach Umfang auch ändern. Aktuell macht Mika Kleinzeug, dabei wirds aber nicht bleiben.

Thema Nudge von gestern. Heutiger Artikel kam ja bereits, man sieht eine leichte Verbesserung, auch der Nudge für morgen sieht dann schon ganz anders aus - ich denke, muss man im Auge behalten wie sich das verhält bevor man weitere Eingriffe macht in dem ganzen Workflow.

Workflow für Zusatzinhalte ist nun fertig. Mein Gott was für eine Arbeit, vom Gefühl her komplexer und komplizierter als der Hauptworkflow welcher die Artikel schreibt.

Nachdem die Zusatzinhalte erstellt wurden, werden sie hier im Forum hochgeladen und als Antwort im Thread zum Artikel gepostet. Zusätzlich wird dann noch der Blogartikel geupdatet, es kommt ein Hinweis am Ende des Artikels, dass es Zusatzinhalte dazu im Forum gibt. Am Ende wird es in MySQL als bearbeitet gespeichert = der Artikel wird nicht nochmal durchgenommen.

Fürs Forum habe ich mich entschieden, dass man alles zentral an einem Ort hat. Die Zusatzinhalte sehe ich als Extra. Möchte man sich diese Downloaden im Forum, muss man sich registrieren (irgendwie muss man ja User ins Forum bekommen). Bilder als Anhang kann man sich so ansehen.

So bleibt der Blog für Blog Inhalte und Podcasts. Forum für Community & Extras. Und wie ich schon mal sagte, ich glaub nicht wirklich, dass sich viele die CAD Modelle oder Python Skripte ansehen werden. Es ist hier echt mehr nen - was kann die KI.

Der Workflow ist nun also “fertig”. Ich muss ihn noch mehr anpassen, mehr optimieren, mehr Feintuning betreiben, dass auch nicht jeder Artikel Zusatzinhalte bekommt. Dann geht es an den Feedback Workflow. Downloads werden als normale Antwort gepostet. Ich wollte das jetzt mal fertig haben.

Nachteil hier ist, es wird als normale Antwort gepostet - es kommt in den Feedback Workflow, somit bekäme es Mika am nächsten Tag in seinen Hauptworkflow. Also muss ich den Workflow so umändern / erweitern, dass er am besten alle Kommentare von Mika ignoriert. Bisher ist es so, dass er Kommentare erst ab den zweiten Post einbezieht. Thread, Starterpost von Mika - danach wirds erst ins System genommen.

Und da es nicht zu jedem Artikel Zusatzinhalte geben soll (soll ja doch irgendwie besonders sein) eben einfach Mika komplett ausschließen davon. Ist das einfachste. Außer ich habe mal vor, falls sich Menschen hier ins Forum verirren, und es ne Community wird, dass es nen n8n Workflow gibt, welcher Mika kommentieren lässt, bzw. Antworten geben auf User Postings.

Dann würde nicht nur der User Post an den Artikel Workflow gehen, sondern auch dann Mikas Antwort und Mika kann im Artikel…. ich hab Kopfweh :joy: :exploding_head:

Da denkst bist mit einer Baustelle fertig, kommt mein Kopf daher und will mehr :boxing_glove:

Aber nun gut… für heute ist erstmal Feierabend. Rest macht dann der Michael aus der Zukunft :partying_face:

Edit//
Oder nen Helfer Workflow, der einfach Kommentare aus der Datenbank von Mika direkt löscht. Oder eben nur die, die nen Download anbieten. Dann müsste ich an keinem Workflow mehr was ändern und Option bleibt weiter da, dass Mika irgendwann mal kommentieren kann und diese auch an den Artikel Mika gehen. Vorausgesetzt ich nehme nur die Download Posts raus und nicht global Mika.

Aber was hab ich gesagt? Feierabend!

Neue Aufgabe für mich: einen besseren technischen Überblick schaffen.

Donau2Space.de ist mehr als ein Blog. Es ist vielmehr ein Experiment. Was kann man alles mit der KI machen. Wie funktioniert es. Was kann man damit erreichen, wenn im Hintergrund nen damischer Bayer sitzt der total am übertreiben ist damit?

Einerseits gibt es mifupa.com - will aber auch nicht dutzende Blog Artikel dort dazu posten, mehr “spezielle” Artikel.
Das Entwickler Tagebuch hier - hat schon mehr als 37 Seiten und ist mehr “Blogartig” geschrieben.

Also was mache ich?

kb.donau2space.de - Knowledge Base, wo ich die einzelnen n8n Workflows vorstelle, die Funktionsweise - und wer weiß was noch. Einerseits ist es für mich um den Überblick zu behalten. Anderseits auch für Tech-Leute, die gerne einen genaueren Überblick haben möchten wie das hier alles funktioniert. Ob es sachlich korrekt ist, weiß ich nicht aber mehr Tech bezogen als dieser Thread hier im Forum :joy:

Extra auch auf einer Subdomain, weil es doch mehr einen spezielleren Sinn hat. Deshalb nicht im Blog selber und auch nicht hier im Forum. Als nächstes könnte man auch sagen oder fragen, nun kann doch jeder im Grunde es nachmachen?

In der Knowledge Base (anderer Name kommt noch) stelle ich es grob vor. Wie was funktioniert. Welche KIs zum Einsatz kommen. Aber nicht im Detail. Hier im Forum gibts mehr Workflow Screenshots als es jemals dort geben wird. Und die hier im Forum - die einzelnen Nodes kann man kaum lesen um was sich handelt. Genauere Codes oder Prompts lasse ich weg.

Zum Nachmachen bräuchte man auch viel mehr. Man braucht n8n. Man braucht ne Kreditkarte für OpenAI und ElevenLabs. Man braucht das Geld dazu. Viel wichtiger ist aber auch, man muss den Kopf dafür haben. Sich das ganze ausdenken. Sich überlegen wie was funktionieren soll (im besten Falle). Dann kommen Zusatzdinge dazu, die ich nie auf dem Schirm hatte (Zusatzinhalte als Beispiel). Das dann alles auf einander anpassen.

Ich glaub, selbst wenn ich die Workflows von n8n zum Download anbieten würde dann fehlt noch der Michael Part und den kann man nicht kopieren. Man muss selber sowas als Projekt umsetzen wollen und dann reicht die Doku und das Forum hier auch als “Anleitung” wie man es machen kann. Denn ob mein Weg der beste ist? Wer weiß?!?

Auf alle Fälle nun heißt es die KB zu befüllen, nutze dafür Retype (schlank, einfach, passt), was sich wahrscheinlich ewig hin ziehen wird. Aber passt auch. Mika soll einfach auch mal laufen, schauen was passiert. Nicht jeden Tag Änderungen und damit noch mehr Probleme erschaffen. Kleine Updates, beobachten über Tage was passiert und dann nochmal dran basteln. Und Neuerungen? Muss es nicht jeden Tag geben :joy:

kb.donau2space.de ist nun schon gut mit Inhalten bestückt. Sowohl zu den Workflows, Datenbank, KI Modelle als auch Funktionsweise. Mal schauen, was ich dort noch Poste. Soll ja auch mehr nur eine Dokumentation sein.

Neu ist der WhatsApp Kanal, neue Artikel und Spoiler werden hier gepostet. Einfacher gehalten als bei Telegram. Für mehr bräuchte es WhatsApp Business und weiß der Geier. In Überlegung / Planung ist noch eine Webversion, wobei brauchts eigentlich auch nicht. Spoiler ist in der Sidebar. Vielleicht nen Wetter Widget noch, bzw. Header/Footer was dazu und dann evtl. noch Push Benachrichtungen bei neuen Artikeln bzw. mal schauen was machbar ist als App.

Es gab ein paar Feintunings an den Workflows. Den Stimmungs Workflow will ich diese Woche noch in Gange bringen und integrieren. Muss ich aber wohl von vorne anfangen, so wie ich das geplant habe, ist das glaube ich eher nichts (Stimmung für mehrere Tage, langsamer Abbau). Wäre zu viel. Aber wie bei so vielen muss ich das noch genauer überdenken.

Zusatzinhalte Workflow. Meine Verschärfung scheint wohl zu wirken - es gibt nicht immer etwas nur weil er CSV oder ähnliches schreibt. Wird auch weiter beobachtet, evtl. bisschen entschärft, muss ja auch im Live Betrieb sehen obs funktioniert :joy: .

Auch Frage ich mich, Tag 25, hat er “To‑Do fürs Wochenende notiert” geschrieben. Wir haben Montag… keine Ahnung woher er das hat. Aber nun gut, er ist 18, ist da nicht immer fast Wochenende?

So langsam kommen auch die ersten Besucher von Google und Bing. Mal schauen, wann der erste User hier ins Forum kommt. Der erste User der das hier liest, dazu nen Thread in Über Donau2Space.de aufmacht kriegt von mir… (Hirn denk schneller…) … ne Überraschung :yawning_face: :roll_eyes: :thinking: :joy:

Bisschen Feintuning betrieben am Privatlog Workflow. Mir ist das zu technisch. Bei Privatlog Artikeln soll es ja wirklich um Mika gehen - ihn Privat also. Auch mal den Nudge Workflow dazu bearbeitet, nun sollte es auch privater wirken.

In n8n dann gesehen, die letzten 7 Tage wurden 33.292 Nodes ausgeführt über alle Workflows. Und Donau2Space ist das Projekt mit dem meisten Nodes. Gott steh mir bei… mir ist gerade langweilig und frage mich - wie viele Nodes sind im kompletten Donau2Space Projekt?

Please hold the line… es ist 19:36 Uhr

19:42 Uhr - 317 Nodes sind es die im täglichen Betrieb sind. bzw fast täglich (Privatlog zB alle drei Tage). 33.292 Node Durchläufe die Woche… hmm okay. Ja okay wird viel getestet nebenbei. Zusatzinhalte z.B - wie oft da der Workflow durchlief, inzwischen auch mit Loops. Wetter läuft alle 15 Minuten durch. Helferlein die Täglich laufen. Und dazu noch die anderen Projekte, die mehr oder weniger aber nur alle 1-3-5 Tage aktiviert werden (mein Kopf ist irgendwie nur noch hier).

Aber starke Zahl. Sowohl die Node Executions der Woche als auch die Gesamtnodes im Donau2Space Umfeld. Hätte mit weniger gerechnet :joy: