<?xml version="1.0" encoding="UTF-8"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="de">
    <id>https://muench.dev/feed/atom</id>
    <title type="text">muench.dev Articles</title>
    <subtitle type="text">muench.dev Feed</subtitle>
    <link xmlns="http://www.w3.org/2005/Atom" rel="self" type="application/atom+xml" href="https://muench.dev/feed/atom"/>
    <updated>2026-04-07T18:32:30+02:00</updated>
    <generator uri="https://github.com/mitydigital/feedamic" version="3.0.12">Feedamic: the Atom and RSS Feed generator for Statamic</generator>
    <entry>
        <title type="text">Stabil vs. Volatil: Wann klassische Automatisierung die bessere Wahl ist – und wann nicht</title>
        <link href="https://muench.dev/post/2026-04-stabil-vs-volatil-wann-klassische-automatisierung-die-bessere-wahl-ist-und-wann-nicht"/>
        <id>https://muench.dev/post/2026-04-stabil-vs-volatil-wann-klassische-automatisierung-die-bessere-wahl-ist-und-wann-nicht</id>
        <published>2026-04-07T07:00:00+00:00</published>
        <updated>2026-04-07T10:45:14+02:00</updated>
        <summary/>
        <content type="html">&lt;p&gt;Wer mich kennt, weiß: Ich liebe Automatisierung, die einfach funktioniert. Um ein Prinzip zu verdeutlichen, das mir gerade durch den Kopf geht, habe ich ein kleines Gedankenexperiment in n8n aufgebaut. Es ist ein fiktives Szenario, das aber ein reales Problem moderner Workflows auf den Punkt bringt. Ich habe zwei parallele Wege konstruiert, um nützliche Daten zu generieren.&lt;/p&gt;
&lt;p&gt;Auf der einen Seite: Ein simpler Code-Node – mein &amp;quot;Fels in der Brandung&amp;quot;. Er tut exakt das, was er soll, jedes Mal gleich, nahezu kostenlos. Auf der anderen Seite: Ein AI-Agent, befeuert durch OpenRouter. Das &amp;quot;kreative Chaos&amp;quot;, das Lösungen findet, die man nicht hart codieren kann, aber eben auch eine gewisse Unberechenbarkeit mitbringt.&lt;/p&gt;
&lt;p&gt;Mir kamen dann die Begriffe &lt;strong&gt;Stabil&lt;/strong&gt; oben in Grün und &lt;strong&gt;Volatil&lt;/strong&gt; unten in Gelb in den Sinn.&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2026-04/n8n-automatisierung-vs-ki-2026-04-04.png&quot; alt=&quot;n8n Workflow: Stabil vs. Volatil – zwei Automatisierungswege im Vergleich&quot; /&gt;&lt;br /&gt;
&lt;em&gt;Zwei fiktive Wege in einem n8n Workflow&lt;/em&gt;&lt;/p&gt;
&lt;p&gt;Das ist keine Wertung. Es ist eine Kategorisierung. Und genau darum geht es mir in diesem Post: Wann greife ich zu welchem Werkzeug – und warum?&lt;/p&gt;
&lt;h2&gt;Was &amp;quot;stabil&amp;quot; bedeutet&lt;/h2&gt;
&lt;p&gt;Klassische Automatisierung – also regelbasierte Systeme, Skripte, Code-Nodes, Regex – arbeitet &lt;strong&gt;deterministisch&lt;/strong&gt;. Gleiche Eingabe, gleiches Ergebnis. Immer. Das klingt langweilig, ist aber in vielen Kontexten genau das, was ich brauche.&lt;/p&gt;
&lt;p&gt;Nehmen wir ein konkretes Beispiel aus der Forschung: Bei der Extraktion von &lt;a href=&quot;https://radiopaedia.org/articles/breast-imaging-reporting-and-data-system-bi-rads-2&quot;&gt;BI-RADS-Scores&lt;/a&gt; aus radiologischen Berichten (Röntgenbilder) wurde Regex direkt mit LLMs verglichen &lt;a href=&quot;#ref-1&quot;&gt;[1]&lt;/a&gt;. Die Genauigkeit? Nahezu identisch. Der Unterschied: Regex war &lt;strong&gt;28.120-mal schneller&lt;/strong&gt;. Nicht ein bisschen schneller. 28.000-mal. Das ist kein akademisches Detail – das ist ein Architektur-Argument.&lt;/p&gt;
&lt;p&gt;Stabile Automatisierung ist auch aus Sicht der Betriebskosten attraktiv. Ein Code-Node in n8n kostet mich nichts extra. Ein LLM-Aufruf schon. Und bei jedem Zyklus wieder. Wer Workflows mit hohem Durchsatz betreibt, merkt das am Ende des Monats.&lt;/p&gt;
&lt;p&gt;Was klassische Automatisierung braucht: &lt;strong&gt;saubere, strukturierte Daten&lt;/strong&gt; und &lt;strong&gt;klar definierte Regeln&lt;/strong&gt;. Wenn ich weiß, was rein geht und was raus kommen soll, ist ein Code-Node die überlegene Wahl. Keine Überraschungen, keine Halluzinationen, kein Token-Verbrauch.&lt;/p&gt;
&lt;h2&gt;Was &amp;quot;volatil&amp;quot; bedeutet – und warum das kein Fehler ist&lt;/h2&gt;
&lt;p&gt;KI ist &lt;em&gt;nicht instabil&lt;/em&gt;. KI ist in einer gewissen Weise &lt;strong&gt;kreativ&lt;/strong&gt; (KI im Sinne von Generative KI). Das ist ein wichtiger Unterschied.&lt;/p&gt;
&lt;p&gt;Wenn ich einem AI Agent eine Aufgabe gebe, bekomme ich nicht zwingend das identische Ergebnis bei identischer Eingabe. Das klingt nach Nachteil – ist aber oft genau das, was ich brauche. Nämlich dann, wenn:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;die Eingabedaten &lt;strong&gt;unstrukturiert&lt;/strong&gt; sind (Freitexte, E-Mails, PDFs ohne Schema)&lt;/li&gt;
&lt;li&gt;ich &lt;strong&gt;keine vollständigen Regeln&lt;/strong&gt; definieren kann, weil die Varianz zu groß ist&lt;/li&gt;
&lt;li&gt;ich &lt;strong&gt;Kontext und Intention&lt;/strong&gt; verstehen muss, nicht nur Muster matchen&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Ein Beispiel: Ich möchte eingehende Support-Anfragen automatisch kategorisieren und priorisieren. Kein Regex der Welt kommt damit klar, wenn Kunden auf zwölf verschiedene Arten schreiben, dass ihr Shop-Login nicht funktioniert. Ein LLM versteht das – auch in holprigem Deutsch, mit Rechtschreibfehlern und ohne klare Struktur.&lt;/p&gt;
&lt;p&gt;Das ist die Stärke der volatilen Seite. Kein Regelbuch nötig. Dafür: Laufzeitkosten, potenziell variierende Ergebnisse und – wichtig – höherer Ressourcenverbrauch.&lt;/p&gt;
&lt;h2&gt;Das Demokratisierungsproblem&lt;/h2&gt;
&lt;p&gt;Hier wird es interessant – und ehrlich gesagt auch ein bisschen heikel.&lt;/p&gt;
&lt;p&gt;KI-Tools haben die Automatisierung &lt;strong&gt;demokratisiert&lt;/strong&gt;. Wer früher einen Entwickler brauchte, um einen Workflow zu bauen, kann heute in n8n einen AI Agent hinwerfen, einen Prompt schreiben und loslegen. Das ist großartig. Im Prinzip.&lt;/p&gt;
&lt;p&gt;In der Praxis sehe ich aber immer häufiger, dass Nicht-Techniker – und leider auch manche Dienstleister – &lt;strong&gt;AI Agents einsetzen, wo ein einfacher Code-Node die bessere Lösung wäre&lt;/strong&gt;. Nicht aus Böswilligkeit, sondern weil:&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;Der AI Agent &amp;quot;einfach funktioniert&amp;quot; – zumindest beim ersten Test&lt;/li&gt;
&lt;li&gt;Die Kosten und Konsequenzen erst später sichtbar werden&lt;/li&gt;
&lt;li&gt;Das Verständnis fehlt, was unter der Haube passiert&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Konkret: Wer eine Bestellbestätigung per E-Mail versendet und dafür einen LLM-Aufruf macht, weil &amp;quot;das KI kann&amp;quot;, zahlt sinnlose Token-Kosten für eine Aufgabe, die ein Template mit drei Variablen in Millisekunden löst. Sicher ist das nicht zwingend teuer – aber es skaliert schlecht. Und es ist fehleranfälliger: Was, wenn das Modell mal kreativ wird und den Inhalt der E-Mail leicht variiert?&lt;/p&gt;
&lt;p&gt;Noch kritischer wird es bei &lt;strong&gt;sicherheitsrelevanten Prozessen&lt;/strong&gt;. KI-generierter Output ist kein deterministischer Output. Wer das in Berechtigungsprüfungen einbaut, ohne das zu verstehen, baut sich ein Problem auf Vorrat.&lt;/p&gt;
&lt;p&gt;Schon im Jahr 2020 haben Kollegen von mir bei einer Studie in Deutschland große Defizite bei Expertise zu KI, Prozessoptimierung und Automatisierung &lt;a href=&quot;#ref-2&quot;&gt;[2]&lt;/a&gt; festgestellt. Ob wir jetzt in 2026 viel besser darstehen?&lt;/p&gt;
&lt;h2&gt;Ressourcen, Kosten, Geschwindigkeit&lt;/h2&gt;
&lt;p&gt;Ein paar Zahlen, die ich im Hinterkopf behalte:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Ein einfacher Code-Node: &lt;strong&gt;nahezu keine Laufzeitkosten&lt;/strong&gt;, Ausführung in Millisekunden&lt;/li&gt;
&lt;li&gt;Ein LLM-Aufruf via API: Token-Kosten, die sich bei hohem Durchsatz summieren – und das nicht linear, sondern kumulativ, weil bei Multi-Turn-Konversationen der gesamte Verlauf mitbezahlt wird&lt;/li&gt;
&lt;li&gt;Reasoning-Modelle (die mit explizitem &amp;quot;Thinking&amp;quot;): bis zu &lt;strong&gt;50-facher CO₂-Ausstoß&lt;/strong&gt; gegenüber kompakten Modellen – für oft marginale Genauigkeitsgewinne &lt;a href=&quot;#ref-3&quot;&gt;[3]&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Das bedeutet nicht, KI zu vermeiden. Es bedeutet, &lt;strong&gt;bewusst zu wählen&lt;/strong&gt;. Brauche ich wirklich ein Reasoning-Modell für das Taggen von Blog-Posts? Nein. Reicht ein kleineres, schnelles Modell für die Sentiment-Klassifikation von Kundenbewertungen? Ja, in den meisten Fällen.&lt;/p&gt;
&lt;p&gt;In meinem privaten n8n habe ich die Metriken immer im Blick.&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2026-04/grafana-dashboard-used-ai-models-in-my-n8n.png&quot; alt=&quot;n8n Metriken&quot; /&gt;&lt;br /&gt;
&lt;em&gt;Dashboard in Grafana&lt;/em&gt;&lt;/p&gt;
&lt;p&gt;Die meisten meiner n8n Prozesse sind immer noch klassisch ohne KI oder nur an gewissen Stellen mit KI ergänzt. Es gibt aber auch Workflows die nur auf KI basieren.&lt;/p&gt;
&lt;h2&gt;Wann ich zur KI muss&lt;/h2&gt;
&lt;p&gt;Es gibt Aufgaben, bei denen ich mit klassischer Automatisierung schlicht nicht weiterkomme:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Unstrukturierte Eingaben verstehen&lt;/strong&gt; – Freitexte, OCR-Ergebnisse, gescannte Dokumente&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Inhaltliche Bewertung&lt;/strong&gt; – Ist diese Produktbeschreibung vollständig? Klingt dieser Text professionell?&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Kontextabhängige Entscheidungen&lt;/strong&gt; – Was ist die passende Antwort auf diese Kundenfrage, abhängig von Bestellhistorie und aktuellem Kontext?&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Kreative Aufgaben&lt;/strong&gt; – Texte generieren, variieren, übersetzen, zusammenfassen&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Für alles davon gibt es keine Regex. Kein if-else-Baum wächst hoch genug. Hier ist KI nicht die bequeme Option – sie ist die einzig sinnvolle.&lt;/p&gt;
&lt;h2&gt;Der hybride Weg: Determinismus als Leitplanke&lt;/h2&gt;
&lt;p&gt;Meine persönliche Architektur-Präferenz sieht so aus: &lt;strong&gt;deterministischer Rahmen, KI dort wo nötig&lt;/strong&gt; &lt;a href=&quot;#ref-4&quot;&gt;[4]&lt;/a&gt;.&lt;/p&gt;
&lt;p&gt;In n8n bedeutet das konkret: Ich prüfe zuerst, ob ich ein Problem regelbasiert lösen kann. Wenn ja, Code-Node. Wenn nein, AI Agent – aber mit klaren Leitplanken: definierten Eingabeformaten, validierten Ausgaben, und einem deterministischen Weiterverarbeitungsschritt danach.&lt;/p&gt;
&lt;p&gt;Das Diagramm am Anfang dieses Posts zeigt genau das: Beide Wege laufen in denselben Output. Ich entscheide pro Aufgabe, welcher Pfad sinnvoller ist. Das ist keine Entweder-oder-Frage. Es ist eine Designentscheidung.&lt;/p&gt;
&lt;h2&gt;Wo steckt bei mir überall KI drin?&lt;/h2&gt;
&lt;p&gt;Wichtig finde ich auch, dass man seine KI-Prozesse im Blick hat. Auch diese benötigen eine Wartung und müssen immer mal wieder angepasst werden. Gerade, wenn neue Modelle auf den Markt kommen.&lt;/p&gt;
&lt;p&gt;In meinen Fall habe ich verschiedene Dashboards in meinen Grafana erstellt. Unter anderem eines, dass mir eine Übersicht der in den n8n Workflows genutzten Modelle und Provider bietet.&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2026-04/n8n-prod-statistics-2026-04-04.png&quot; alt=&quot;Grafana Dashboard - Genutzte Modelle &quot; /&gt;&lt;br /&gt;
&lt;em&gt;Metriken in n8n&lt;/em&gt;&lt;/p&gt;
&lt;p&gt;Gelöst habe ich das über einen n8n Workflow der mir täglich alle anderen Workflows analyisiert und die Metadaten dann in meiner Postgres Datenbank abgelegt.&lt;/p&gt;
&lt;p&gt;Eine weiterer wichtiger Teil ist, dass man seine KI Modelle auch mit Testdaten testet. Dazu gibt es aber bestimmt mal einen eigenen Blog-Post von mir.&lt;/p&gt;
&lt;h2&gt;Fazit&lt;/h2&gt;
&lt;p&gt;KI ist kein Allheilmittel – und klassische Automatisierung ist kein Relikt. Beides hat seinen Platz. Die Kunst liegt darin zu erkennen, &lt;strong&gt;welches Werkzeug für welche Aufgabe geeignet ist&lt;/strong&gt; &lt;a href=&quot;#ref-5&quot;&gt;[5]&lt;/a&gt;.&lt;/p&gt;
&lt;p&gt;Was mich bei der aktuellen Entwicklung beschäftigt: Immer mehr Menschen automatisieren, ohne die Implikationen zu verstehen. Das ist erst mal gut – Automatisierung ist wichtig. Aber die Wahl des falschen Werkzeugs produziert Systeme, die teurer, langsamer, fehleranfälliger und schwerer wartbar sind als nötig.&lt;/p&gt;
&lt;p&gt;Meine Faustregel: Wenn ich das Problem vollständig beschreiben kann, brauche ich keine KI. Wenn nicht – dann schon.&lt;/p&gt;
&lt;hr /&gt;
&lt;h2&gt;Literatur&lt;/h2&gt;
&lt;p&gt;&lt;a id=&quot;ref-1&quot;&gt;&lt;/a&gt;[1] Lacoste et al. (2025): &lt;em&gt;A Comparative Performance Analysis of Regular Expressions and an LLM-Based Approach to Extract the BI-RADS Score from Radiological Reports.&lt;/em&gt; medRxiv.&lt;br /&gt;
&lt;a href=&quot;https://www.medrxiv.org/content/10.1101/2025.06.01.25328636v1.full-text&quot;&gt;https://www.medrxiv.org/content/10.1101/2025.06.01.25328636v1.full-text&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a id=&quot;ref-2&quot;&gt;&lt;/a&gt;[2] valantic (2020): &lt;em&gt;Exklusive valantic-Studie: Große Defizite bei Expertise zu KI, Prozessoptimierung und Automatisierung&lt;/em&gt;&lt;br /&gt;
&lt;a href=&quot;https://www.valantic.com/de/presse/exklusive-valantic-studie-mit-luenendonk/&quot;&gt;https://www.valantic.com/de/presse/exklusive-valantic-studie-mit-luenendonk/&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a id=&quot;ref-3&quot;&gt;&lt;/a&gt;[3] ScienceDaily (2025): &lt;em&gt;Thinking AI models emit 50x more CO2 — and often for nothing.&lt;/em&gt;&lt;br /&gt;
&lt;a href=&quot;https://www.sciencedaily.com/releases/2025/06/250619035520.htm&quot;&gt;https://www.sciencedaily.com/releases/2025/06/250619035520.htm&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a id=&quot;ref-4&quot;&gt;&lt;/a&gt;[4] Elementum AI (2025): &lt;em&gt;Deterministic vs. Probabilistic AI: Enterprise Workflow Guide.&lt;/em&gt;&lt;br /&gt;
&lt;a href=&quot;https://www.elementum.ai/blog/deterministic-vs-probabilistic-ai&quot;&gt;https://www.elementum.ai/blog/deterministic-vs-probabilistic-ai&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a id=&quot;ref-5&quot;&gt;&lt;/a&gt;[5] ECI Software Solutions: &lt;em&gt;AI vs. Automation: Why the Difference Matters for SMB Growth.&lt;/em&gt;&lt;br /&gt;
&lt;a href=&quot;https://www.ecisolutions.com/blog/ai-vs-automation-smb-difference/&quot;&gt;https://www.ecisolutions.com/blog/ai-vs-automation-smb-difference/&lt;/a&gt;&lt;/p&gt;</content>
        <author>
            <name>Christian Münch</name>
        </author>
    </entry>
    <entry>
        <title type="text">Claude Desktop unter Linux</title>
        <link href="https://muench.dev/post/2026-03-claude-desktop-unter-linux"/>
        <id>https://muench.dev/post/2026-03-claude-desktop-unter-linux</id>
        <published>2026-03-31T16:12:00+00:00</published>
        <updated>2026-04-07T16:22:15+02:00</updated>
        <summary/>
        <content type="html">&lt;p&gt;Ich arbeite seit Jahren auf Fedora. Linux ist für mich kein Experiment, sondern Alltag. Umso mehr hat es mich gestört, dass Anthropic Claude Desktop offiziell nur für macOS und Windows anbietet. Für Linux: Fehlanzeige.&lt;/p&gt;
&lt;p&gt;Mein Kollege bei valantic, &lt;a href=&quot;https://github.com/patrickjaja&quot;&gt;&lt;strong&gt;Patrick Schönfeld&lt;/strong&gt;&lt;/a&gt;, hat das nicht einfach hingenommen. Er ist KI-Experte, Open-Source-Enthusiast – und jemand, der lieber Probleme löst als darüber redet.&lt;/p&gt;
&lt;p&gt;Das Ergebnis: &lt;a href=&quot;https://github.com/patrickjaja/claude-desktop-bin&quot;&gt;claude-desktop-bin&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2026-03/screenshot_claude_desktop_linux_20260331_200608-1.png&quot; alt=&quot;Claude Desktop unter Linux&quot; /&gt;&lt;br /&gt;
&lt;em&gt;Hier ein Screenshot von meinem Fedora Desktop&lt;/em&gt;&lt;/p&gt;
&lt;h2&gt;Installation: Für jede Distribution&lt;/h2&gt;
&lt;p&gt;Patrick hat wirklich alle großen Distributionen bedacht. Kein halbgarer Single-Distro-Port.&lt;/p&gt;
&lt;h3&gt;Arch Linux / Manjaro&lt;/h3&gt;
&lt;pre&gt;&lt;code class=&quot;language-bash hljs bash&quot; data-lang=&quot;bash&quot;&gt;yay -S claude-desktop-bin
&lt;/code&gt;&lt;/pre&gt;
&lt;p&gt;Updates kommen automatisch über den AUR-Helper – nichts weiter zu tun.&lt;/p&gt;
&lt;h3&gt;Debian / Ubuntu&lt;/h3&gt;
&lt;p&gt;Der empfohlene Weg über das APT-Repository bringt automatische Updates mit:&lt;/p&gt;
&lt;pre&gt;&lt;code class=&quot;language-bash hljs bash&quot; data-lang=&quot;bash&quot;&gt;curl -fsSL https://patrickjaja.github.io/claude-desktop-bin/install.sh | sudo bash
sudo apt install claude-desktop-bin
&lt;/code&gt;&lt;/pre&gt;
&lt;p&gt;Wer kein fremdes Install-Script ausführen möchte – das ist ein vollkommen legitimer Standpunkt – greift zum &lt;code&gt;.deb&lt;/code&gt; direkt von den Releases:&lt;/p&gt;
&lt;pre&gt;&lt;code class=&quot;language-bash hljs bash&quot; data-lang=&quot;bash&quot;&gt;wget https://github.com/patrickjaja/claude-desktop-bin/releases/latest/download/claude-desktop-bin_1.1.5749-1_amd64.deb
sudo dpkg -i claude-desktop-bin_*_amd64.deb
&lt;/code&gt;&lt;/pre&gt;
&lt;h3&gt;Fedora / RHEL&lt;/h3&gt;
&lt;pre&gt;&lt;code class=&quot;language-bash hljs bash&quot; data-lang=&quot;bash&quot;&gt;wget https://github.com/patrickjaja/claude-desktop-bin/releases/latest/download/claude-desktop-bin-1.1.4088-1.x86_64.rpm
sudo dnf install ./claude-desktop-bin-*-1.x86_64.rpm
&lt;/code&gt;&lt;/pre&gt;
&lt;h3&gt;NixOS&lt;/h3&gt;
&lt;pre&gt;&lt;code class=&quot;language-bash hljs bash&quot; data-lang=&quot;bash&quot;&gt;&lt;span class=&quot;hljs-comment&quot;&gt;# Ausprobieren ohne Installation&lt;/span&gt;
nix run github:patrickjaja/claude-desktop-bin

&lt;span class=&quot;hljs-comment&quot;&gt;# Dauerhaft ins Profil&lt;/span&gt;
nix profile install github:patrickjaja/claude-desktop-bin
&lt;/code&gt;&lt;/pre&gt;
&lt;p&gt;Wer es direkt in die Systemkonfiguration übernehmen will:&lt;/p&gt;
&lt;pre&gt;&lt;code class=&quot;language-nix hljs nix&quot; data-lang=&quot;nix&quot;&gt;{
  inputs.claude-desktop.&lt;span class=&quot;hljs-attr&quot;&gt;url&lt;/span&gt; = &lt;span class=&quot;hljs-string&quot;&gt;&quot;github:patrickjaja/claude-desktop-bin&quot;&lt;/span&gt;;

  environment.&lt;span class=&quot;hljs-attr&quot;&gt;systemPackages&lt;/span&gt; = [
    inputs.claude-desktop.packages.x86_64-linux.default
  ];
}
&lt;/code&gt;&lt;/pre&gt;
&lt;h3&gt;AppImage (alle anderen)&lt;/h3&gt;
&lt;pre&gt;&lt;code class=&quot;language-bash hljs bash&quot; data-lang=&quot;bash&quot;&gt;wget https://github.com/patrickjaja/claude-desktop-bin/releases/latest/download/Claude_Desktop-1.1.5749-x86_64.AppImage
chmod +x Claude_Desktop-*-x86_64.AppImage
./Claude_Desktop-*-x86_64.AppImage
&lt;/code&gt;&lt;/pre&gt;
&lt;h2&gt;Cowork unter Linux&lt;/h2&gt;
&lt;p&gt;Cowork ist Anthropics agentic Workspace-Feature – Dateioperationen, Desktop-Automatisierung, Task-Management direkt vom Desktop aus. Auch hier: offiziell kein Linux-Support.&lt;/p&gt;
&lt;p&gt;Patrick hat den Windows Service &lt;strong&gt;reverse-engineered&lt;/strong&gt; und unter Linux lauffähig gemacht. Das Projekt: &lt;a href=&quot;https://github.com/patrickjaja/claude-cowork-service&quot;&gt;claude-cowork-service&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Der Service ist optional. Claude Desktop funktioniert auch ohne Cowork. Wer ihn möchte:&lt;/p&gt;
&lt;pre&gt;&lt;code class=&quot;language-bash hljs bash&quot; data-lang=&quot;bash&quot;&gt;&lt;span class=&quot;hljs-comment&quot;&gt;# Schnellinstallation, jede Distribution&lt;/span&gt;
curl -fsSL https://raw.githubusercontent.com/patrickjaja/claude-cowork-service/main/scripts/install.sh | bash

&lt;span class=&quot;hljs-comment&quot;&gt;# Arch Linux per AUR&lt;/span&gt;
yay -S claude-cowork-service
systemctl --user &lt;span class=&quot;hljs-built_in&quot;&gt;enable&lt;/span&gt; --now claude-cowork
&lt;/code&gt;&lt;/pre&gt;
&lt;p&gt;Voraussetzung ist die &lt;strong&gt;Claude Code CLI&lt;/strong&gt; – sie muss installiert und im Pfad erreichbar sein. Die Pfade &lt;code&gt;/usr/bin/claude&lt;/code&gt;, &lt;code&gt;~/.local/bin/claude&lt;/code&gt; und &lt;code&gt;/usr/local/bin/claude&lt;/code&gt; werden automatisch erkannt.&lt;/p&gt;
&lt;h2&gt;Was dahintersteckt&lt;/h2&gt;
&lt;p&gt;Das ist kein Quick-Port. Das Paket enthält eine ganze Reihe gezielter Patches, die aus Claude Desktop – einer Electron-App, primär für macOS entwickelt – eine funktionale Linux-Anwendung machen. Tray-Icon-Integration, DBus-Handling, MCP-Server-Support, Computer Use via &lt;code&gt;xdotool&lt;/code&gt; und &lt;code&gt;scrot&lt;/code&gt; – alles dabei.&lt;/p&gt;
&lt;p&gt;Ein automatisierter CI-Job prüft täglich auf neue Claude-Desktop-Versionen, validiert alle Patches in Docker und stellt sicher, dass nur funktionierende Builds ins AUR kommen. Das ist solide Arbeit.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Ein Hinweis für Wayland-Nutzer:&lt;/strong&gt; Der globale Shortcut (&lt;code&gt;Ctrl+Alt+Space&lt;/code&gt;) funktioniert nur unter X11. Wer auf einem Wayland-Compositor unterwegs ist, startet Claude Desktop so:&lt;/p&gt;
&lt;pre&gt;&lt;code class=&quot;language-bash hljs bash&quot; data-lang=&quot;bash&quot;&gt;claude-desktop --ozone-platform=x11
&lt;/code&gt;&lt;/pre&gt;
&lt;p&gt;Das lässt sich auch dauerhaft in der &lt;code&gt;.desktop&lt;/code&gt;-Datei eintragen.&lt;/p&gt;
&lt;h2&gt;Fazit&lt;/h2&gt;
&lt;p&gt;Es ist inzwischen ein bekanntes Muster: Hersteller ignoriert Linux, Community oder engagierte Entwickler wie mein Kollege Patrick übernehmen.&lt;/p&gt;
&lt;p&gt;Danke, Patrick – für die Arbeit, die da drin steckt. Das Ergebnis ist wirklich brauchbar.&lt;/p&gt;
&lt;p&gt;Habt ihr Claude Desktop unter Linux schon ausprobiert? Auf welcher Distribution läuft es bei euch?&lt;/p&gt;
&lt;h2&gt;Update 7. April 2026&lt;/h2&gt;
&lt;p&gt;Ich habe den Text nach Feedbacl von Patrick nochmal angepasst. Bei RPMs und AppImage hatte ich geschrieben, dass es keine automatischen Update gibt. Das war nicht korrekt. Patrick hat auch für diese Installationen ein automatisches Update bereitgestellt.&lt;/p&gt;</content>
        <author>
            <name>Christian Münch</name>
        </author>
    </entry>
    <entry>
        <title type="text">Rückblick: Magento Stammtisch Stuttgart – Remote dabei mit mage-remote-run</title>
        <link href="https://muench.dev/post/2026-03-rueckblick-magento-stammtisch-stuttgart-remote-dabei-mit-mage-remote-run"/>
        <id>https://muench.dev/post/2026-03-rueckblick-magento-stammtisch-stuttgart-remote-dabei-mit-mage-remote-run</id>
        <published>2026-03-27T07:00:00+00:00</published>
        <updated>2026-03-28T16:29:58+01:00</updated>
        <summary/>
        <content type="html">&lt;p&gt;Am 25. März 2026 fand der Magento Stammtisch Stuttgart statt – und ich war dabei. Nicht vor Ort, wie ich es mir gewünscht hätte, sondern von zuhause aus. Eine Erkältung hat mir einen Strich durch die Reisepläne gemacht. Zum Glück war eine Remote-Teilnahme möglich, und so konnte ich trotzdem meinen Beitrag über &lt;strong&gt;mage-remote-run&lt;/strong&gt; halten ... ganz schön viel &amp;quot;remote&amp;quot; :-)&lt;/p&gt;
&lt;p&gt;Persönlich vor Ort zu sein hat natürlich einen anderen Charakter. Die spontanen Gespräche am Rande, das gemeinsame Abendessen, das Netzwerken beim Getränk in der Hand – das lässt sich nicht durch einen Video-Call ersetzen. Aber die Community hat das unkompliziert möglich gemacht, und dafür bin ich dankbar.&lt;/p&gt;
&lt;h2&gt;Mein Beitrag: mage-remote-run in der Praxis&lt;/h2&gt;
&lt;p&gt;Ich habe &lt;a href=&quot;https://mage-remote-run.muench.dev&quot;&gt;&lt;strong&gt;mage-remote-run&lt;/strong&gt;&lt;/a&gt; vorgestellt – mein Tool für die Remote-Verwaltung von Magento-Instanzen ohne SSH-Zugriff. Gerade in Cloud-nativen Umgebungen wie Adobe Commerce as a Cloud Service oder abgesicherten Kubernetes-Clustern stößt man schnell an Grenzen, wenn man gewohnte Shell-Werkzeuge einsetzen will. mage-remote-run setzt deshalb konsequent auf einen &lt;strong&gt;API-first&lt;/strong&gt;-Ansatz und kommuniziert über HTTPS mit dem Shop.&lt;/p&gt;
&lt;p&gt;Die Vorstellung beim Stammtisch gibt es als Video – ich verlinke es hier, sobald es verfügbar ist.&lt;/p&gt;
&lt;p&gt;Neu war das Plugin-System in mage-remote-run, dass ich erstmals beim Stammtisch vorstellen konnte.&lt;/p&gt;
&lt;h2&gt;MageForge: Ein Build-Tool für Frontend-Entwickler&lt;/h2&gt;
&lt;p&gt;&lt;strong&gt;Mathias Elle&lt;/strong&gt;, Magento- und Hyvä-Frontend-Experte, hat zusammen mit Thomas Hauschild an &lt;a href=&quot;https://github.com/OpenForgeProject/mageforge&quot;&gt;&lt;strong&gt;MageForge&lt;/strong&gt;&lt;/a&gt; gearbeitet und beim Stammtisch vorgestellt, was dahintersteckt. MageForge ist ein Tool, das speziell auf die Bedürfnisse von Frontend-Entwicklern im Magento-Ökosystem ausgelegt ist – mit dem Fokus auf Build-Prozesse.&lt;/p&gt;
&lt;p&gt;Wer schon mal mit Hyvä gearbeitet hat, weiß, dass der Frontend-Stack dort deutlich moderner ist als im klassischen Magento. Genau da setzt MageForge an: Es soll die Build-Workflows vereinfachen und beschleunigen, ohne dass man tief in die Konfigurationsdetails einsteigen muss. Ich bin gespannt, wie sich das Tool weiterentwickelt – das ist genau die Art von pragmatischer Tooling-Arbeit, die der Community gut tut.&lt;/p&gt;
&lt;p&gt;Auch in einer CI/CD Pipeline oder beim Reparieren von kaputten Frontend-Setups kann das Tool gute Dienste leisten.&lt;/p&gt;
&lt;p&gt;Beeindrucken ist auch, dass es auf dem höchsten PhpStan-Level getestet wurde.&lt;br /&gt;
Weil es so gut ist, wird es in der nächsten n98-magerun2 Version ein neues Kommando &lt;code&gt;mageforge:install&lt;/code&gt; geben damit ihr es schnell in euer Magento System installieren könnt.&lt;/p&gt;
&lt;h2&gt;Claude-AI-Benchmarks: Wie sehr machen Regeln den Unterschied?&lt;/h2&gt;
&lt;p&gt;&lt;strong&gt;Anton Gudkov&lt;/strong&gt;, Magento-zertifizierter Entwickler, hat sich mit einem Thema beschäftigt, das mich ebenfalls intensiv begleitet: dem Einsatz von &lt;strong&gt;Claude-AI-Modellen&lt;/strong&gt; in der Entwicklung. Kudos auch dafür, dass er beim Stammtisch seinen ersten Vortrag hielt. Sein Fokus lag auf einem konkreten und spannenden Aspekt – dem Benchmark unterschiedlicher Einstellungen und Regelwerke.&lt;/p&gt;
&lt;p&gt;Die Kernfrage: Wie stark beeinflussen die Konfiguration und die definierten Regeln das Ergebnis, das ein Modell wie Claude liefert? Das ist etwas, was in der Praxis oft unterschätzt wird. Man gibt dem Modell einen Prompt, bekommt eine Antwort – und denkt wenig darüber nach, was passiert, wenn man die Rahmenbedingungen systematisch variiert. Anton hat genau das gemacht und die Ergebnisse verglichen.&lt;/p&gt;
&lt;p&gt;Mein Fazit (aus der Ferne): Das ist wertvolle Arbeit. Gerade wenn man KI-Modelle in bestehende Entwicklungsprozesse integriert, lohnt es sich, diese Stellschrauben zu verstehen – und nicht einfach mit den Standardeinstellungen zu leben.&lt;/p&gt;
&lt;p&gt;Ich hoffe, beim nächsten Mal persönlich dabei zu sein. Stuttgart wäre es wert gewesen. Danke an Phoenix Media für die wie immer tolle Orga.&lt;/p&gt;</content>
        <author>
            <name>Christian Münch</name>
        </author>
    </entry>
    <entry>
        <title type="text">mage-remote-run</title>
        <link href="https://muench.dev/post/2026-02-mage-remote-run"/>
        <id>https://muench.dev/post/2026-02-mage-remote-run</id>
        <published>2026-02-07T18:52:00+00:00</published>
        <updated>2026-02-07T22:43:05+01:00</updated>
        <summary/>
        <content type="html">&lt;p&gt;Wer in den letzten 15 Jahren im Magento-Ökosystem unterwegs war, kenn mich eventuell durch das Tool &lt;strong&gt;n98-magerun&lt;/strong&gt;. Es ist das „Schweizer Taschenmesser“ der Magento Entwickler und Administratoren der direkt auf dem Server oder in seiner lokalen Umgebung arbeitet. Aber die Welt des E-Commerce-Hostings hat sich massiv weiterentwickelt.&lt;/p&gt;
&lt;p&gt;Mit dem Aufstieg von &lt;strong&gt;Cloud-native&lt;/strong&gt; Architekturen stehen wir heute oft vor einer ganz neuen Herausforderung: Wir stehen vor einer verschlossenen Tür.&lt;/p&gt;
&lt;h2&gt;Die Absicht: Wenn die Shell zur Sackgasse wird&lt;/h2&gt;
&lt;p&gt;Mein Ziel mit n98-magerun2 war es immer, Entwicklern maximale Effizienz auf der Konsole zu ermöglichen. Doch in modernen Umgebungen wie &lt;strong&gt;Adobe Commerce as a Cloud Service (SaaS)&lt;/strong&gt; oder hochgradig abgesicherten &lt;strong&gt;Kubernetes-Clustern&lt;/strong&gt; gibt es oft schlichtweg keinen SSH-Zugriff mehr. Security-Policies und Compliance-Vorgaben verhindern den direkten Weg auf den Server oder die Datenbank.&lt;/p&gt;
&lt;p&gt;Hier entstand die Idee für &lt;strong&gt;mage-remote-run&lt;/strong&gt;. Die Absicht war nicht, n98-magerun2 zu ersetzen – für die lokale Arbeit mit Tools wie DDEV bleibt es unersetzlich da es direkt im System arbeiten kann. Die Vision war vielmehr, ein Werkzeug zu schaffen, das auch per Remote funktioniert. Es sollte mit allen meinen Magento-Instanzen arbeiten. Es sollte ohne große Einrichtung funktionieren.&lt;/p&gt;
&lt;h2&gt;Die Idee: API-first statt Shell-first&lt;/h2&gt;
&lt;p&gt;Mage Remote Run verfolgt einen radikalen &lt;strong&gt;API-first&lt;/strong&gt; Ansatz. Anstatt zu versuchen, Code innerhalb der Infrastruktur auszuführen, kommuniziert das Tool von außen über standardisierte HTTPS- und REST-Schnittstellen mit dem Shop.&lt;/p&gt;
&lt;p&gt;Das Kernkonzept basiert auf drei Säulen:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Remote-First Management:&lt;/strong&gt; Volle Kontrolle über Produkte, Bestellungen und Systemkonfigurationen, ganz ohne Shell-Zugriff.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Plattform-Agnostisch:&lt;/strong&gt; Es ist egal, ob die Instanz in der Adobe Commerce Cloud als SaaS oder PaaS, bei einem spezialisierten Hoster mit Magento Open Source oder als &lt;strong&gt;Mage-OS&lt;/strong&gt; Instanz läuft.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Moderne Distribution:&lt;/strong&gt; Als Node.js-basiertes Tool ist es entkoppelt von der lokalen PHP-Umgebung und lässt sich nahtlos in moderne Workflows integrieren.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Mehrer Instanzen verwalten&lt;/strong&gt;: Es lassen sich Connections zu mehreren Instanzen konfigurieren.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2026-02/mage-remote-run-2025-10-05-1029.png&quot; alt=&quot;&quot; /&gt;&lt;/p&gt;
&lt;h2&gt;Hat das nicht einen Haken?&lt;/h2&gt;
&lt;p&gt;Das Konzept hat nur einen Haken. Es ist auf die Möglichkeiten der API beschränkt. Bietet die API eine Funktion nicht an, dann kann ich diese auch nicht aufrufen.&lt;br /&gt;
Mit dem Aufkommen einer reinen SaaS Lösung wie Adobe Commerce as a Cloud Service ist es aber per se nicht mehr möglich am Backend-Code Änderungen direkt vorzunehmen. Daher muss Adobe hier selbst schauen, dass man möglichst viele Funktionen per API abdeckt.&lt;/p&gt;
&lt;p&gt;Bei der PaaS Variante oder bei On-Premises Systemen kann die API natürlich auch weiterhin erweitert werden. Spezielle selbst angelegte Endpunkte kennt das Tool nicht unebdingt.&lt;br /&gt;
Für diesen Fall habe ich ein generisches &amp;quot;rest&amp;quot; Kommando angelegt über das man sehr einfach beliebige Endpunkte mit der aktuell konfigurierten Verbindung ansteuern kann.&lt;/p&gt;
&lt;h2&gt;Premiere beim Adobe Commerce APAC User Group Event&lt;/h2&gt;
&lt;p&gt;Ich freue mich besonders, dass ich die Gelegenheit hatte, Mage Remote Run erstmals offiziell im Rahmen der &lt;strong&gt;Adobe Commerce APAC User Group&lt;/strong&gt; am 5. Februar 2026 vorzustellen. Unter dem Titel „Architecting Remote Operations“ konnte ich der Community zeigen, wie wir die Lücke zwischen lokaler Developer Experience und restriktiven Cloud-Umgebungen schließen.&lt;/p&gt;
&lt;p&gt;Das Video der Session mit der kompletten Live-Demo findet ihr hier eingebettet:&lt;/p&gt;
&lt;iframe width=&quot;800&quot; height=&quot;450&quot; src=&quot;https://www.youtube.com/embed/LKzzzF1FR48?feature=oembed&quot; frameborder=&quot;0&quot; allow=&quot;accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share&quot; referrerpolicy=&quot;strict-origin-when-cross-origin&quot; allowfullscreen title=&quot;APAC Virtual Architecting Remote Operations&quot;&gt;&lt;/iframe&gt;
&lt;p&gt;Im Video gehe ich auch auf den einen oder anderen Use-Case ein und zeige auch wie man mit dem Tool Produkte importieren kann oder es in einer GitHub Action verwendet.&lt;/p&gt;
&lt;h2&gt;Ein Blick in die Zukunft: KI und MCP&lt;/h2&gt;
&lt;p&gt;Ein zentraler Bestandteil meiner Vision ist die Vorbereitung auf eine Welt, in der wir Systeme nicht nur über manuelle Befehle steuern. Durch die Unterstützung des &lt;strong&gt;Model Context Protocol (MCP)&lt;/strong&gt; ist Mage Remote Run bereits „AI-Ready“. Es erlaubt KI-Agenten, sicher auf Shop-Daten zuzugreifen und administrative Aufgaben durch natürliche Sprache zu lösen. Generell ist die Funktion aber noch mit Vorsicht zu nutzen. Es gibt bisher auch keine Möglichkeit die Funktion auf rein lesende Kommandos einzuschränken.&lt;/p&gt;
&lt;p&gt;Beispiel:&lt;/p&gt;
&lt;pre&gt;&lt;code class=&quot;language-bash hljs bash&quot; data-lang=&quot;bash&quot;&gt;mage-remote-run rest V1/products -m GET --page-size 1 --current-page 1 --format json
&lt;/code&gt;&lt;/pre&gt;
&lt;h2&gt;Du willst auch mal testen?&lt;/h2&gt;
&lt;p&gt;Für die Ausführung des Tools wird nur eine einigermaßen neue NodeJS Installation benötigt. Ist diese vorhanden, dann kann man es sehr einfach nutzen.&lt;/p&gt;
&lt;pre&gt;&lt;code class=&quot;language-bash hljs bash&quot; data-lang=&quot;bash&quot;&gt;npm install -g mage-remote-run
&lt;/code&gt;&lt;/pre&gt;
&lt;p&gt;Oder Sandboxed:&lt;/p&gt;
&lt;pre&gt;&lt;code class=&quot;language-bash hljs bash&quot; data-lang=&quot;bash&quot;&gt;npx mage-remote-run
&lt;/code&gt;&lt;/pre&gt;
&lt;p&gt;Eine Dokumentation findet man hier: &lt;a href=&quot;https://mage-remote-run.muench.dev&quot;&gt;https://mage-remote-run.muench.dev&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Viel Spaß beim ausprobieren!&lt;/p&gt;</content>
        <author>
            <name>Christian Münch</name>
        </author>
    </entry>
    <entry>
        <title type="text">OpenCode: Kann viel und macht dich unabhängiger</title>
        <link href="https://muench.dev/post/2026-01-opencode-kann-viel-und-macht-dich-unabhaengiger"/>
        <id>https://muench.dev/post/2026-01-opencode-kann-viel-und-macht-dich-unabhaengiger</id>
        <published>2026-01-20T11:05:00+00:00</published>
        <updated>2026-01-22T16:39:47+01:00</updated>
        <summary/>
        <content type="html">&lt;p&gt;In den letzten Monaten habe ich viel über die Entwicklung von KI-Agenten und die Bedeutung von Standards wie dem &lt;a href=&quot;/post/2025-04-das-model-context-protocol-mcp&quot;&gt;Model Context Protocol (MCP)&lt;/a&gt; geschrieben. Wer mich kennt, weiß, dass ich immer auf der Suche nach Tools bin, die nicht nur mächtig, sondern auch flexibel und offen sind. Nach dem Testen zahlreicher Agenten bin ich bei &lt;strong&gt;OpenCode&lt;/strong&gt; hängen geblieben. Warum? Weil es genau die Unabhängigkeit bietet, die in der aktuellen KI-Landschaft oft fehlt.&lt;/p&gt;
&lt;h2&gt;Warum OpenCode? Freiheit durch Open Source&lt;/h2&gt;
&lt;p&gt;Der Hauptgrund für meinen Wechsel zu OpenCode ist die Philosophie hinter dem Projekt. Das Tool steht unter der &lt;strong&gt;MIT-Lizenz&lt;/strong&gt; &lt;a href=&quot;https://github.com/anomalyco/opencode&quot;&gt;direkt auf GitHub&lt;/a&gt;, was es zu einer echten Open-Source-Alternative in einem Markt voller proprietärer &amp;quot;Black Boxes&amp;quot; macht.&lt;/p&gt;
&lt;p&gt;In einer Zeit, in der man sich schnell an einen einzigen Provider bindet, bietet OpenCode eine beeindruckende Breite an unterstützten Providern. Ob OpenAI Codex, GitHub Copilot oder Google – man ist nicht mehr auf das Wohlwollen eines einzelnen Herstellers angewiesen. Besonders spannend: Man kann mehrere Provider gleichzeitig konfigurieren. Wenn das Quota bei einem Dienst aufgebraucht ist, wechselt man einfach zum nächsten. Auch lokale Instanzen über &lt;strong&gt;Ollama&lt;/strong&gt; lassen sich problemlos einbinden, was ich bereits in meinem &lt;a href=&quot;/post/2024-12-ki-agenten-mit-n8n-erstellen&quot;&gt;n8n-Agenten-Setup&lt;/a&gt; als großen Vorteil für den Datenschutz und die Kostenkontrolle hervorgehoben habe.&lt;/p&gt;
&lt;p&gt;Nicht verschweigen möchte ich aber, dass es zuletzt Probleme bei der Nutzung von Claude-Code gab. Antrophic möchte es nicht mehr sehen, dass man andere CLI Tools als das eigene nutzt.&lt;/p&gt;
&lt;p&gt;Siehe dazu auch: &lt;a href=&quot;https://www.youtube.com/watch?v=CYBbprV1eA0&quot;&gt;YouTube: What's going on with Claude Code and OpenCode?&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;OpenAI nutzte diesen Umstand dann direkt um ausdrücklich hinzuweisen, dass man OpenCode auf jeden Fall toll findet und natürlich unterstützt. Da ist schon ein wenig Politik im Spiel. Es zeigt aber auch, dass man sich um die Unabhängigkeit des eigenen Tool-Stacks auch Gedanken machen sollte.&lt;/p&gt;
&lt;p&gt;Was, wenn auf aus politischen Gründen die Nutzung des einen odere anderen Modells nicht mehr möglich ist? Dann will ich eben nicht meine komplette Umgebung auf ein anderes Tool mit Vendor-Lock umstellen. Genau hier gibt mir OpenCode eine gewisse Sicherheit.&lt;/p&gt;
&lt;h2&gt;Ein Paradies für Entwickler: TUI, LSP, Skills, ...&lt;/h2&gt;
&lt;p&gt;OpenCode ist von Entwicklern für Entwickler gebaut. Das merkt man an jeder Ecke – angefangen bei der schicken &lt;strong&gt;TUI (Terminal User Interface)&lt;/strong&gt;.&lt;/p&gt;
&lt;h3&gt;Die Benutzeroberfläche (TUI)&lt;/h3&gt;
&lt;p&gt;Die TUI bietet alles, was man für einen effizienten Workflow braucht:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Themes &amp;amp; Konfiguration:&lt;/strong&gt; Alles lässt sich bis ins kleinste Detail anpassen und sogar pro Projekt überschreiben.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Sidebars &amp;amp; Status:&lt;/strong&gt; Wichtige Informationen und der Status des aktuellen Modells sind immer im Blick.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Shortcuts:&lt;/strong&gt; Mit schnellen Tastenkombinationen wechselt man das Modell oder prüft den Status.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Slash-Commands:&lt;/strong&gt; Ähnlich wie in Mattermost lassen sich Aufgaben über Slash-Commands steuern. Dank eines eigenen SDKs kann man sogar eigene Kommandos und Plugins entwickeln.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2026-01/screenshot_20260120_113412-opencode-tui-welcome-screen.png&quot; alt=&quot;OpenCode TUI Welcome Screen&quot; /&gt;&lt;/p&gt;
&lt;h3&gt;Technische Integration&lt;/h3&gt;
&lt;p&gt;Ein KI-Agent ist nur so gut wie sein Verständnis vom Code. OpenCode nutzt &lt;strong&gt;Language Server (LSP)&lt;/strong&gt; und spezifische Formatter der jeweiligen Programmiersprachen, um eine präzise Code-Analyse und -Manipulation zu gewährleisten. Zudem werden &lt;strong&gt;Agent Skills&lt;/strong&gt; unterstützt (via &lt;a href=&quot;https://agentskills.io&quot;&gt;agentskills.io&lt;/a&gt;), um lokal leichtgewichtige Tools zu bauen, ohne direkt einen kompletten MCP-Server aufsetzen zu müssen.&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2026-01/screenshot_20260120_113907-skill.png&quot; alt=&quot;OpenCode skill call&quot; /&gt;&lt;/p&gt;
&lt;p&gt;Aber keine Sorge: MCP wird natürlich ebenfalls voll unterstützt.&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2026-01/screenshot_20260120_114035-mcp-call.png&quot; alt=&quot;MCP in OpenCode&quot; /&gt;&lt;/p&gt;
&lt;h2&gt;Architektur: Flexibilität in jeder Umgebung&lt;/h2&gt;
&lt;p&gt;In meinem Beitrag über &lt;a href=&quot;/post/2025-01-ki-agenten-monolithisch-vs-verteilt&quot;&gt;monolithische vs. verteilte Agenten&lt;/a&gt; habe ich die Vor- und Nachteile verschiedener Strukturen diskutiert. OpenCode schlägt hier eine interessante Brücke:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Sub-Agents:&lt;/strong&gt; Man kann Agenten mit spezialisierten Sub-Agenten erstellen und in der TUI einfach mit der Tab-Taste zwischen ihnen wechseln.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Parallel Sessions:&lt;/strong&gt; Mehrere Aufgaben gleichzeitig bearbeiten? Kein Problem.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Headless &amp;amp; Web Mode:&lt;/strong&gt; Besonders praktisch ist der Headless-Modus für Umgebungen, in denen man auf Datenbanken oder Systeme zugreifen muss, die nicht direkt erreichbar sind. Alternativ lässt sich OpenCode als Webserver starten, um direkt im Browser zu arbeiten.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;IDE-Support:&lt;/strong&gt; Wer lieber in seiner gewohnten Umgebung bleibt, findet immer mehr Plugins für gängige IDEs. Auch die Integration in andere Tools wie Maestro oder der Support für ACP sind vorhanden. Ich setze da persönlich mehr auf die CLI.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2&gt;Installation: In Sekunden startklar&lt;/h2&gt;
&lt;p&gt;Die Installation ist denkbar einfach und unterstützt so ziemlich jeden gängigen Paketmanager. Mein Favorit ist die Installation via NPM, aber es gibt viele Wege zum Ziel:&lt;/p&gt;
&lt;pre&gt;&lt;code class=&quot;language-bash hljs bash&quot; data-lang=&quot;bash&quot;&gt;&lt;span class=&quot;hljs-comment&quot;&gt;# Über NPM (oder bun/pnpm/yarn)&lt;/span&gt;
npm i -g opencode-ai@latest

&lt;span class=&quot;hljs-comment&quot;&gt;# macOS &amp;amp; Linux (empfohlen via brew)&lt;/span&gt;
brew install anomalyco/tap/opencode

&lt;span class=&quot;hljs-comment&quot;&gt;# Windows (via Scoop oder Choco)&lt;/span&gt;
scoop install extras/opencode
choco install opencode

&lt;span class=&quot;hljs-comment&quot;&gt;# Arch Linux&lt;/span&gt;
paru -S opencode-bin
&lt;/code&gt;&lt;/pre&gt;
&lt;p&gt;Ein kleiner Tipp für den Start: Mit dem Kommando opencode debug lässt sich die aktuelle Konfiguration inklusive MCP-Servern und Skills überprüfen. Das spart enorm viel Zeit bei der Fehlersuche.&lt;/p&gt;
&lt;h2&gt;Mein Fazit (bisher)&lt;/h2&gt;
&lt;p&gt;Die Arbeit mit OpenCode macht einfach Spaß. Es ist aktiv, die Community ist engagiert und die Dokumentation lässt kaum Fragen offen. Es ist das &amp;quot;Schweizer Taschenmesser&amp;quot; für KI-gestütztes Coding, das genau die Flexibilität bietet, die ich mir für meine Infrastruktur wünsche.&lt;/p&gt;
&lt;p&gt;Was haltet ihr von Open-Source-Agenten?&lt;/p&gt;</content>
        <author>
            <name>Christian Münch</name>
        </author>
    </entry>
    <entry>
        <title type="text">Tech-Trends 2026: Wenn die KI den Bildschirm verlässt und zum Kollegen wird</title>
        <link href="https://muench.dev/post/2025-12-tech-trends-2026-wenn-die-ki-den-bildschirm-verlaesst-und-zum-kollegen-wird"/>
        <id>https://muench.dev/post/2025-12-tech-trends-2026-wenn-die-ki-den-bildschirm-verlaesst-und-zum-kollegen-wird</id>
        <published>2025-12-14T14:00:00+00:00</published>
        <updated>2025-12-14T15:17:15+01:00</updated>
        <summary/>
        <content type="html">&lt;p&gt;Wenn wir uns die Entwicklung der letzten zwei Jahre ansehen, fühlen wir uns oft wie in einem Schnellzug, der kaum an Bahnhöfen hält. Doch basierend auf aktuellen Analysen und Beobachtungen zeichnet sich für das Jahr 2026 ein fundamentaler Wandel ab: Wir verlassen die Phase des reinen Experimentierens (&amp;quot;Wow, ChatGPT kann dichten!&amp;quot;) und treten in die Phase der operativen Wertschöpfung ein.&lt;/p&gt;
&lt;p&gt;Der gemeinsame Nenner für 2026 ist &lt;strong&gt;Autonomie&lt;/strong&gt; – und zwar nicht mehr nur digital auf unseren Bildschirmen, sondern zunehmend auch physisch in unserer echten Welt. Schauen wir uns im Detail an, was das für uns als Entwickler, E-Commerce-Experten und Data Scientists bedeutet.&lt;/p&gt;
&lt;h2&gt;Physical AI: Die Intelligenz bekommt einen Körper&lt;/h2&gt;
&lt;p&gt;Ein entscheidender Wendepunkt für 2026 ist der Aufstieg der &lt;strong&gt;&amp;quot;Physical AI&amp;quot;&lt;/strong&gt;. Während wir bisher KI vor allem als Chatbot oder Bildgenerator kannten, verlässt die Intelligenz nun den Bildschirm und manifestiert sich in der physischen Welt. Es ist die Konvergenz von fortschrittlicher KI mit Hardware – von Industrierobotern bis hin zu Consumer-Geräten.&lt;/p&gt;
&lt;h3&gt;Verkörperte Intelligenz statt starrer Programmierung&lt;/h3&gt;
&lt;p&gt;Roboter entwickeln sich von &amp;quot;dummen&amp;quot; Automaten, die stur programmierten Pfaden folgen, zu intelligenten Akteuren. Dank fortschrittlicher Modelle nehmen sie ihre Umgebung über Sensoren wahr und treffen autonom Entscheidungen. Wir sprechen hier von &lt;strong&gt;verkörperter Intelligenz&lt;/strong&gt;: Roboter agieren nicht mehr nur als Werkzeuge, sondern als autonome Agenten, die reale Probleme lösen.&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2025-12/screenshot_20251214_134830.png&quot; alt=&quot;Roboter in Frabrik&quot; /&gt; (Bildquelle: Google AI)&lt;/p&gt;
&lt;p&gt;Ein Beispiel hierfür ist Amazons &amp;quot;DeepFleet&amp;quot;-KI, die riesige Roboterflotten koordiniert, oder BMW-Fabriken, in denen Fahrzeuge selbstständig durch die Produktion navigieren. Es geht um &amp;quot;Vision-Guided Assembly&amp;quot;, bei dem Systeme in Echtzeit auf Abweichungen reagieren, anstatt bei jedem Fehler stehenzubleiben.&lt;/p&gt;
&lt;h3&gt;Die Ära der kollaborativen Automatisierung&lt;/h3&gt;
&lt;p&gt;Die alte Angst vor der Verdrängung durch Maschinen weicht 2026 dem Konzept der &lt;strong&gt;Mensch-Maschine-Teams&lt;/strong&gt;. Wir sehen den Aufstieg der &amp;quot;kollaborativen Automatisierung&amp;quot;:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Aufgabenteilung:&lt;/strong&gt; Roboter (Cobots) übernehmen routinemäßige, gefährliche oder schwere Aufgaben.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Fokus Mensch:&lt;/strong&gt; Wir Menschen konzentrieren uns auf Strategie, Kreativität und komplexe Kundenbeziehungen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Sicherheit:&lt;/strong&gt; Ein enormer Fokus liegt auf &amp;quot;Fail-Safes&amp;quot;, damit diese autonomen Systeme sicher Seite an Seite mit uns arbeiten können.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;Revolution in Logistik und neuen Branchen&lt;/h3&gt;
&lt;p&gt;Die Auswirkungen sind branchenübergreifend spürbar:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Logistik &amp;amp; Lagerhaltung:&lt;/strong&gt; Autonome Mobile Roboter (AMRs) werden zum Standard in Verteilzentren. Sie bringen Artikel direkt zu den Kommissionierern und reduzieren Leerlaufzeiten drastisch. Gesteuert werden diese Flotten direkt durch E-Commerce-Daten, um Millionen von Bestellungen zu sortieren.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Phygital B2B:&lt;/strong&gt; Im B2B-Handel verschmelzen physische und digitale Welt. Roboter bestücken beispielsweise Smart Locker, damit Handwerker ihre Bestellungen rund um die Uhr abholen können.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Landwirtschaft:&lt;/strong&gt; Autonome Drohnen überwachen Felder und sprühen Pestizide nur dort, wo es wirklich nötig ist, was Erträge steigert und die Umwelt schont.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Energie:&lt;/strong&gt; Drohnen inspizieren Windkraftanlagen oder Stromleitungen, um Risiken für Menschen zu minimieren und Fehler früher zu erkennen.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;Technischer Enabler:&lt;/strong&gt; Damit das alles in Echtzeit funktioniert, verlagert sich die Rechenleistung via &lt;strong&gt;Edge AI&lt;/strong&gt; direkt in die Geräte. Hier gewinnt die Programmiersprache &lt;strong&gt;Rust&lt;/strong&gt; enorm an Bedeutung, da sie die nötige Speichersicherheit und Performance für diese kritischen Systeme liefert.&lt;/p&gt;
&lt;h2&gt;IoT 2026: Vom Sensornetz zum autonomen Nervensystem (AIoT)&lt;/h2&gt;
&lt;p&gt;Im Jahr 2026 ist das Internet of Things kein loses Netzwerk vernetzter Sensoren mehr. IoT verschmilzt vollständig mit künstlicher Intelligenz zur &lt;strong&gt;AIoT&lt;/strong&gt; oder &lt;strong&gt;Physical AI&lt;/strong&gt;. Geräte sammeln nicht mehr nur Daten, sondern &lt;strong&gt;treffen autonome Entscheidungen direkt am Entstehungsort (Edge)&lt;/strong&gt;.&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2025-12/iot-prozess-beispiel.png&quot; alt=&quot;Beispiel IoT Prozess&quot; /&gt;&lt;/p&gt;
&lt;h3&gt;Von Datensammlung zu Handlung: Zero-Click &amp;amp; Autonomous Commerce&lt;/h3&gt;
&lt;p&gt;IoT-Systeme werden zu aktiven Marktteilnehmern:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Autonome Nachbestellung (B2B):&lt;/strong&gt; Sensoren in Lagern, Maschinen oder Produktionslinien überwachen Füllstände und Verschleiß und lösen bei Bedarf automatisch Bestellungen über Commerce-APIs aus – ohne menschliches Eingreifen. Das senkt Lagerkosten und verhindert Produktionsstillstände.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Predictive Maintenance 2.0:&lt;/strong&gt; KI interpretiert kontinuierlich strukturierte und unstrukturierte Sensordaten, um Ausfälle vorherzusagen, bevor sie auftreten. In Branchen wie Energieversorgung oder Industrie werden manuelle Prüfungen dadurch weitgehend überflüssig.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;Edge AI, TinyML &amp;amp; Distributed MLOps&lt;/h3&gt;
&lt;p&gt;Die Cloud verliert ihre Monopolstellung:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Edge AI &amp;amp; TinyML:&lt;/strong&gt; Modelle werden so optimiert, dass sie auf ressourcenbeschränkten Geräten laufen. Das reduziert Latenz, spart Bandbreite und verbessert Datenschutz, da Daten das Gerät nicht verlassen müssen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Distributed MLOps:&lt;/strong&gt; Deployment, Updates und Monitoring von Modellen erfolgen verteilt über Tausende oder Millionen Geräte.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Rust als Schlüsseltechnologie:&lt;/strong&gt; Für Embedded- und IoT-Systeme etabliert sich Rust als bevorzugte Sprache, da sie Performance mit hoher Speichersicherheit verbindet.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;Expansion der Physical AI: Robotik &amp;amp; Drohnen&lt;/h3&gt;
&lt;p&gt;IoT wird mobil und autonom:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Branchenübergreifende Autonomie:&lt;/strong&gt; IoT-gesteuerte Roboter und Drohnen übernehmen Inspektionen, Transporte oder Feldanalysen selbstständig – von Logistik über Landwirtschaft bis Gesundheitswesen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Lagerhaus-Automatisierung:&lt;/strong&gt; Flotten aus AGVs und AMRs, gesteuert durch IoT- und Echtzeitdaten, werden zum Standard, um Arbeitskräftemangel und steigende Bestellvolumina abzufedern.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;Hardware- und Energiegrenzen&lt;/h3&gt;
&lt;p&gt;Der Ausbau von AIoT trifft auf physische Limits:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Legacy-Chip-Mangel:&lt;/strong&gt; Besonders ältere Chiptechnologien (&amp;gt;90 nm), essenziell für IoT-Geräte und Industrieanlagen, geraten unter Druck – ein Risiko für Skalierung und Verfügbarkeit.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Energieeffizienz:&lt;/strong&gt; Energy-Efficient Computing wird zur Pflicht. Neuromorphe Ansätze und spezialisierte Inference-Chips adressieren den steigenden Strombedarf.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;Sicherheit &amp;amp; Sovereign AI im IoT&lt;/h3&gt;
&lt;p&gt;Da IoT zunehmend kritische Prozesse steuert, wird Sicherheit zur Systemfrage:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Sovereign AI:&lt;/strong&gt; IoT-Daten und Modelle müssen lokal verarbeitet werden (Data Residency), um regulatorische und geopolitische Risiken zu minimieren.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Preemptive Cybersecurity:&lt;/strong&gt; KI-basierte Sicherheitssysteme erkennen Angriffe prädiktiv, bevor sie Schaden anrichten können.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;Kurz gesagt:&lt;/strong&gt; IoT ist 2026 das &lt;strong&gt;Nervensystem autonomer Agenten&lt;/strong&gt;. Es liefert nicht nur Daten, sondern führt physische Aktionen wie Bestellungen, Wartungen oder Transporte selbstständig direkt am Gerät aus.&lt;/p&gt;
&lt;h2&gt;Consumer Hardware: Von Training zu Inference im Alltag&lt;/h2&gt;
&lt;p&gt;Ein oft unterschätzter, aber zentraler Trend für 2026 ist der Wandel in der &lt;strong&gt;Consumer-Hardware&lt;/strong&gt;. Während in den letzten Jahren vor allem Chips für das Training großer KI-Modelle im Fokus standen, verschiebt sich die Nachfrage nun deutlich in Richtung &lt;strong&gt;Inference&lt;/strong&gt; – also die effiziente Anwendung von KI im Alltag.&lt;/p&gt;
&lt;h3&gt;Von Trainings-Chips zu Inference-Maschinen&lt;/h3&gt;
&lt;p&gt;Für Endgeräte zählt nicht maximale Rechenleistung um jeden Preis, sondern &lt;strong&gt;Energieeffizienz, geringe Latenz und Verfügbarkeit in Echtzeit&lt;/strong&gt;. KI-Antworten müssen sofort kommen – ohne Roundtrip in die Cloud. Das führt zu einer neuen Generation von Chips, die speziell für Inference optimiert sind und KI-Funktionen permanent im Hintergrund ausführen können.&lt;/p&gt;
&lt;h3&gt;On-Device AI als Standard&lt;/h3&gt;
&lt;p&gt;&lt;img src=&quot;&quot; alt=&quot;On-Device als Standard&quot; /&gt;&lt;/p&gt;
&lt;p&gt;Unternehmen wie z.B. Qualcomm treiben diese Entwicklung massiv voran. &amp;quot;On-Device AI&amp;quot; bedeutet, dass KI direkt auf Smartphones, Laptops oder Wearables läuft – auch offline. Das bringt mehrere Vorteile:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Datenschutz:&lt;/strong&gt; Sensible Daten verlassen das Gerät nicht.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Kostenkontrolle:&lt;/strong&gt; Weniger Cloud-Inference reduziert laufende Betriebskosten.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Performance:&lt;/strong&gt; Sprach-, Bild- oder Gestenerkennung reagieren ohne spürbare Verzögerung.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Diese Entwicklung ist der Schlüssel dafür, dass KI tatsächlich zum unsichtbaren Alltagsbegleiter wird – und nicht nur zur Cloud-API.&lt;/p&gt;
&lt;h3&gt;Energieeffizientes Computing als Innovationsfeld&lt;/h3&gt;
&lt;p&gt;Gleichzeitig wächst der Druck, den Energiehunger der IT einzudämmen. Neben klassischen Chip-Optimierungen entstehen neue Paradigmen:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Optisches Computing:&lt;/strong&gt; Rechenoperationen mit Licht versprechen drastisch geringeren Energieverbrauch bei bestimmten Workloads.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Neuromorphe Systeme:&lt;/strong&gt; Chips, die das menschliche Gehirn nachahmen, arbeiten ereignisbasiert statt taktbasiert – ideal für Sensorik, Mustererkennung und Edge-Anwendungen.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Auch wenn diese Technologien 2026 noch nicht flächendeckend im Consumer-Markt ankommen, markieren sie die Richtung für die nächste Dekade.&lt;/p&gt;
&lt;h3&gt;Das Smartphone als biometrische Festung&lt;/h3&gt;
&lt;p&gt;Im Mobile Commerce und bei digitalen Identitäten wird das Smartphone 2026 zur &lt;strong&gt;zentralen Sicherheitsinstanz&lt;/strong&gt;. Hardware übernimmt dabei Aufgaben, die früher durch Passwörter und manuelle Prüfungen gelöst wurden.&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Biometrische Standards:&lt;/strong&gt; Fingerabdruck- und Gesichtserkennung werden zur Grundvoraussetzung für reibungslose &lt;em&gt;Wallet-First&lt;/em&gt;-Bezahlvorgänge und Logins. Passwörter und manuelle Karteneingaben verschwinden zunehmend aus dem Alltag.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Real-World Object Detection:&lt;/strong&gt; Verbesserte Kameras, LiDAR- und Tiefensensoren ermöglichen es Smartphones, reale Objekte präzise zu erkennen und digitale Inhalte exakt in die physische Umgebung einzubetten.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Für den Handel bedeutet das: Authentifizierung, Zahlung und Kontext verschmelzen zu einem einzigen, hardware-gestützten Prozess.&lt;/p&gt;
&lt;h3&gt;Smart Home &amp;amp; Connected Devices&lt;/h3&gt;
&lt;p&gt;Auch im häuslichen Umfeld wird Hardware zum natürlichen Interface zwischen Mensch und digitalem Handel.&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Voice Commerce:&lt;/strong&gt; Smarte Lautsprecher, Wearables und vernetzte Haushaltsgeräte entwickeln sich zu aktiven Einkaufsassistenten. Bestellungen erfolgen kontextbasiert per Sprache – ohne App, ohne Bildschirm, mit minimalen Interaktionsschritten.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Zusammengefasst lässt sich sagen: Consumer-Hardware im Jahr 2026 wird definiert durch &lt;strong&gt;KI-Spezialisierung (Inference-Chips)&lt;/strong&gt;, &lt;strong&gt;Autonomie&lt;/strong&gt; und &lt;strong&gt;natürliche Interaktion&lt;/strong&gt; über Biometrie, Sprache und räumliches Verständnis.&lt;br /&gt;
Gleichzeitig wächst der Druck, den Energiehunger der IT einzudämmen. Neben klassischen Chip-Optimierungen entstehen neue Paradigmen:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Optisches Computing:&lt;/strong&gt; Rechenoperationen mit Licht versprechen drastisch geringeren Energieverbrauch bei bestimmten Workloads.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Neuromorphe Systeme:&lt;/strong&gt; Chips, die das menschliche Gehirn nachahmen, arbeiten ereignisbasiert statt taktbasiert – ideal für Sensorik, Mustererkennung und Edge-Anwendungen.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Auch wenn diese Technologien 2026 noch nicht flächendeckend im Consumer-Markt ankommen, markieren sie die Richtung für die nächste Dekade.&lt;/p&gt;
&lt;h2&gt;AR &amp;amp; VR: Die Schnittstelle zwischen digitaler und physischer Welt&lt;/h2&gt;
&lt;p&gt;AR und VR erreichen 2026 einen Reifegrad, der sie erstmals breit einsetzbar macht – auch jenseits von Gaming und Marketing-Demos.&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2025-12/tech-trends-2026-ar-vr.png&quot; alt=&quot;&quot; /&gt;&lt;/p&gt;
&lt;h3&gt;Neue Interaktionsformen&lt;/h3&gt;
&lt;p&gt;Die Interaktion löst sich von klassischen Controllern:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Gesten- und Blicksteuerung&lt;/strong&gt;&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Kopfbewegungen&lt;/strong&gt;&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Natürliche Sprachbefehle&lt;/strong&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Dadurch wird AR/VR intuitiver und inklusiver – und gleichzeitig enger mit KI-Systemen verzahnt, die Kontext und Absicht verstehen.&lt;/p&gt;
&lt;h3&gt;Shopping &amp;amp; E-Commerce neu gedacht&lt;/h3&gt;
&lt;p&gt;Für den (B2B- und B2C-)Handel ergeben sich konkrete Anwendungsfälle:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Virtual Try-Ons:&lt;/strong&gt; Kleidung, Brillen oder Schutzkleidung werden realistisch am eigenen Körper visualisiert.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;In-Home-Visualisierung:&lt;/strong&gt; Möbel oder Maschinen lassen sich maßstabsgetreu im eigenen Raum platzieren.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Beratung in Echtzeit:&lt;/strong&gt; KI-gestützte Assistenten begleiten Nutzer durch immersive Einkaufserlebnisse.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;AR/VR wird damit nicht zum Gimmick, sondern zur &lt;strong&gt;verkaufsrelevanten Schnittstelle&lt;/strong&gt; zwischen Produktdaten, Raum und Kunde.&lt;/p&gt;
&lt;p&gt;Siehe auch &lt;a href=&quot;https://tblocks.com/articles/e-commerce-trends/&quot;&gt;E-commerce Trends 2026: 10 Insights for the Future of Online Shopping&lt;/a&gt;&lt;/p&gt;
&lt;h2&gt;Die Hardware-Krise 2026: Engpässe, Energie und Geopolitik&lt;/h2&gt;
&lt;p&gt;Neben all diesen Innovationen zeichnet sich für 2026 eine strukturelle &lt;strong&gt;Hardware-Krise&lt;/strong&gt; ab – allerdings nicht als eindimensionaler Mangel, sondern als komplexes Zusammenspiel aus falschen Investitionsanreizen, Energieknappheit und geopolitischen Risiken.&lt;/p&gt;
&lt;h3&gt;Die Zwei-Klassen-Krise bei Chips&lt;/h3&gt;
&lt;p&gt;Die Krise wird weniger durch fehlende High-End-KI-Chips bestimmt, sondern durch einen Mangel an sogenannten &lt;strong&gt;Legacy-Chips&lt;/strong&gt;.&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Alltagstechnik unter Druck:&lt;/strong&gt; Während massiv in modernste Fertigung für KI und Smartphones investiert wurde, blieb die Produktion reifer Technologien (über 90 nm) zurück – genau jener Chips, die Autos, Haushaltsgeräte und Medizintechnik benötigen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Konsequenzen:&lt;/strong&gt; Produktionsstopps in der Automobilindustrie werden wahrscheinlicher. Ein weltweiter Rückgang der Fahrzeugproduktion um bis zu 20 % gilt als realistisches Szenario, mit längeren Lieferzeiten und steigenden Preisen für Endkunden.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2025-12/tech-trends-2026-hardwarekrise.png&quot; alt=&quot;Die Zwei-Klassen-Krise bei Chips&quot; /&gt;&lt;/p&gt;
&lt;h3&gt;Energie als neuer Flaschenhals&lt;/h3&gt;
&lt;p&gt;Die Hardware-Krise wird zunehmend zu einer &lt;strong&gt;Energie-Krise&lt;/strong&gt;.&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;AI Factories:&lt;/strong&gt; Der massive Ausbau von Rechenzentren treibt den Strombedarf auf ein neues Niveau.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Kosten &amp;amp; Knappheit:&lt;/strong&gt; Verfügbarkeit und Preis von Elektrizität werden zum limitierenden Faktor für Wachstum.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Gegenmaßnahmen:&lt;/strong&gt; Unternehmen sind gezwungen, KI-Berechnungen zeitlich zu verschieben – etwa durch &lt;strong&gt;Carbon Scheduling&lt;/strong&gt;, bei dem Inference dann läuft, wenn Energie verfügbar oder günstig ist.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;Geopolitische Unsicherheit als Preistreiber&lt;/h3&gt;
&lt;p&gt;Die Abhängigkeit von globalen Lieferketten bleibt kritisch:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Asien-Abhängigkeit:&lt;/strong&gt; Ein Großteil der Unternehmen sieht geopolitische Spannungen rund um Taiwan als ernsthafte Bedrohung für die Versorgung mit Halbleitern.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Preissteigerungen:&lt;/strong&gt; Bereits heute sind die meisten Unternehmen mit steigenden Chippreisen konfrontiert – Kosten, die an Endkunden weitergereicht werden.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;Lieferverzögerungen als neues Normal&lt;/h3&gt;
&lt;p&gt;Selbst ohne Eskalation bleibt die Lage angespannt:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Durchschnittliche Verzögerung:&lt;/strong&gt; Etwa vier Monate Lieferzeit für Halbleiter gelten als normal.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Planungsunsicherheit:&lt;/strong&gt; Ein signifikanter Teil der Unternehmen stuft die Versorgungslage für 2026 als kritisch ein.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;Essenz:&lt;/strong&gt; Die Krise entsteht nicht, weil es &lt;em&gt;keine&lt;/em&gt; Technologie gibt, sondern weil lange Zeit die &lt;em&gt;falsche&lt;/em&gt; priorisiert wurde. Das verstärkt den politischen und wirtschaftlichen Fokus auf Energieinfrastruktur, Resilienz und souveräne Lieferketten.&lt;/p&gt;
&lt;h2&gt;Green AI: Nachhaltigkeit als Architektur-Entscheidung&lt;/h2&gt;
&lt;p&gt;Das Thema Nachhaltigkeit wird 2026 von einer spannenden Dualität geprägt sein. Wir stehen vor der Herausforderung, den enormen Energiehunger der KI selbst zu bewältigen (&lt;strong&gt;Green AI&lt;/strong&gt;) und gleichzeitig KI als Werkzeug zu nutzen, um nachhaltiger zu werden (&lt;strong&gt;AI for Sustainability&lt;/strong&gt;).&lt;/p&gt;
&lt;h3&gt;Die Balance: Green MLOps &amp;amp; Carbon Scheduling&lt;/h3&gt;
&lt;p&gt;Nachhaltigkeit wird fester Bestandteil von Machine Learning Operations (MLOps). Wir Entwickler optimieren nicht mehr nur auf Genauigkeit eines Modells, sondern suchen den Trade-off zwischen Performance, Kosten und dem CO2-Fußabdruck. Grüne Metriken werden zu zentralen KPIs.&lt;/p&gt;
&lt;p&gt;Ein großes Thema wird &lt;strong&gt;Carbon Scheduling&lt;/strong&gt;: KI-Workloads werden zeitlich so gesteuert, dass sie dann laufen, wenn viel erneuerbare Energie im Stromnetz verfügbar ist oder der Strom günstig ist. Da Energieverfügbarkeit zum Engpass für Rechenzentren werden kann, werden Unternehmen gezwungen sein, ihre Energiequellen zu diversifizieren.&lt;/p&gt;
&lt;h3&gt;Daten für die Kreislaufwirtschaft&lt;/h3&gt;
&lt;p&gt;KI wird zum Treiber für echten Geschäftswert durch Nachhaltigkeit.&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Scope 3 Transparenz:&lt;/strong&gt; Da Nachhaltigkeitsdaten faktisch Geschäftsdaten sind, nutzen Unternehmen KI, um die komplexen indirekten Emissionen entlang der gesamten Lieferkette (Scope 3) nachzuverfolgen. (Siehe hier auch &lt;a href=&quot;https://www.scope3transparent.de&quot;&gt;https://www.scope3transparent.de&lt;/a&gt;)&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Digitaler Produktpass:&lt;/strong&gt; Regulatorische Anforderungen zwingen CSOs (Sustainability Officers) und CDOs (Data Officers) zur engen Zusammenarbeit, um die Datenflut für Produktpässe zu bewältigen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Wettbewerbsvorteil:&lt;/strong&gt; Im B2B-E-Commerce wird Transparenz über den CO2-Fußabdruck oder die Materialherkunft zur echten Wettbewerbswaffe. Wer diese Daten transparent liefert, gewinnt Aufträge.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Um den sogenannten &lt;a href=&quot;https://de.wikipedia.org/wiki/Rebound-Effekt_(%C3%96konomie)&quot;&gt;Rebound-Effekt&lt;/a&gt; zu vermeiden – bei dem effizientere KI einfach zu noch mehr Nutzung führt – werden Unternehmen strengere Regeln für die Nutzung von KI-Tokens einführen. KI-Rechenleistung wird nur genehmigt, wenn ein signifikanter geschäftlicher Mehrwert nachweisbar ist.&lt;/p&gt;
&lt;h2&gt;E-Commerce Trends 2026: Autonomie, Plattformen und Datenhoheit&lt;/h2&gt;
&lt;p&gt;Der E-Commerce tritt 2026 in eine neue Reifephase ein. Weniger manuelles Shopping, mehr &lt;strong&gt;Automatisierung, Autonomie und System-Intelligenz&lt;/strong&gt; prägen den Markt. Gleichzeitig entsteht ein deutlicher Gegentrend: der Wunsch nach Kontrolle über Daten, Kosten und Infrastruktur.&lt;/p&gt;
&lt;h3&gt;Agentic Commerce: Wenn Bots einkaufen&lt;/h3&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2025-12/tech-trends-2026-agentic-commerce.png&quot; alt=&quot;Wenn KI-Agenten für uns einkaufen&quot; /&gt;&lt;/p&gt;
&lt;p&gt;Der radikalste Wandel ist der Übergang vom klassischen &amp;quot;Click &amp;amp; Buy&amp;quot; hin zu &lt;strong&gt;Agentic Commerce&lt;/strong&gt;. KI-Agenten handeln im Auftrag von Konsumenten und Unternehmen:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Sie suchen Produkte, vergleichen Angebote und schließen Käufe autonom ab.&lt;/li&gt;
&lt;li&gt;Im B2B-Bereich treten Einkaufs-Bots zunehmend direkt mit Verkäufer-Systemen in Verhandlungen.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Der Webshop wird damit weniger Verkaufsoberfläche und mehr &lt;strong&gt;API-Endpunkt für Maschinen&lt;/strong&gt;.&lt;br /&gt;
Hier werden alle relevanten Hersteller im Markt Lösungen anbieten (müssen).&lt;br /&gt;
Wir werden in 2026 mehr funktionierende Agentic Commerce Prozesse sehen.&lt;/p&gt;
&lt;h3&gt;Hyper-Personalisierung: Der &amp;quot;Store of One&amp;quot;&lt;/h3&gt;
&lt;p&gt;Personalisierung erreicht 2026 eine neue Stufe. Shops reagieren in Echtzeit auf Kontext und Absicht:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Dynamische Kataloge und Preise pro Nutzer. Ein Beispiel habe ich in meinem Artikel zum &lt;a href=&quot;/post/2025-06-adobe-commerce-advanced-technical-bootcamp-in-barcelona&quot;&gt;Adobe Technical Bootcamp in Barcelona Adobe Commerce Optimizer&lt;/a&gt;) im Bereich Adobe Commerce Optimizer beschrieben.&lt;/li&gt;
&lt;li&gt;Individuell generierte Inhalte statt statischer Seiten&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Der „Store of One“ ersetzt die klassische Segmentierung – mit messbaren Effekten auf Conversion und Kundenbindung.&lt;/p&gt;
&lt;h3&gt;Predictive &amp;amp; Zero-Click Commerce&lt;/h3&gt;
&lt;p&gt;E-Commerce wird zunehmend &lt;strong&gt;vorausschauend&lt;/strong&gt;:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Systeme erkennen Bedarf, bevor er entsteht (z. B. durch IoT-Sensoren im B2B). Was vor einigen Jahren scheiterte wie der Amazon Dash Button, kommt durch die Hintertür wieder zu uns.&lt;/li&gt;
&lt;li&gt;Nachbestellungen erfolgen automatisch, ohne aktiven Kaufprozess.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Der Kauf wird zum Hintergrundprozess – Effizienz schlägt Interaktion.&lt;/p&gt;
&lt;h3&gt;Immersive Commerce als Conversion-Treiber&lt;/h3&gt;
&lt;p&gt;AR und 3D-Shopping werden vom Nice-to-have zum Standard:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Virtuelle Anproben und In-Room-Visualisierung&lt;/li&gt;
&lt;li&gt;Höhere Conversion-Rates und deutlich reduzierte Retouren&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;a href=&quot;https://de.wikipedia.org/wiki/Immersion_(virtuelle_Realit%C3%A4t)&quot;&gt;Immersion&lt;/a&gt; wird zur direkten Umsatzkennzahl.&lt;/p&gt;
&lt;h2&gt;Plattformen, TCO und Architektur-Entscheidungen&lt;/h2&gt;
&lt;p&gt;Mit diesen Trends verschärft sich die strategische Plattformfrage.&lt;/p&gt;
&lt;h3&gt;SaaS &amp;amp; Low-Code: Wachstum durch Convenience&lt;/h3&gt;
&lt;p&gt;Plattformen wie Shopify profitieren von:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;AI-Powered Low-Code/No-Code&lt;/strong&gt;&lt;/li&gt;
&lt;li&gt;Schneller Time-to-Market&lt;/li&gt;
&lt;li&gt;Geringer Einstiegshürde und kalkulierbarer TCO&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Für viele Unternehmen bleibt dies der schnellste Weg zu skalieren – insbesondere im D2C- und Mid-Market.&lt;/p&gt;
&lt;h3&gt;Composable Commerce: Freiheit mit Preis&lt;/h3&gt;
&lt;p&gt;Für komplexe Enterprise-Anforderungen (aber auch nur da!) setzt sich &lt;strong&gt;Composable Commerce / MACH&lt;/strong&gt; durch:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Best-of-Breed statt All-in-One&lt;/li&gt;
&lt;li&gt;Hohe Flexibilität und Innovationsgeschwindigkeit&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Der Preis dafür ist &lt;strong&gt;steigende Komplexität&lt;/strong&gt;. Ohne saubere Governance steigen Betriebskosten und Abhängigkeiten. Auch 2026 werden Händler die diese Komplexität nicht brauchen sich für eine viel zu große Lösung entscheiden und mit ihrem Vorgaben gegen die Wand fahren.&lt;br /&gt;
Auf der anderen Seite wird es auch weiterhin den Irrglauben geben, dass super komplizierte Geschäftsmodelle sich einfach über Standards in Platformen zurechtklicken lassen.&lt;br /&gt;
Bei einfache Geschäftsmodelle werden Platformen wie Shopify weiter den Markt dominieren.&lt;/p&gt;
&lt;h2&gt;Der Gegentrend: Datenhoheit &amp;amp; Sovereign Commerce&lt;/h2&gt;
&lt;p&gt;Parallel zur SaaS-Dominanz wächst ein starker Gegentrend. Einige werden erkennen, dass man doch lieber die volle Kontrolle über seine Prozesse und Daten möchte.&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2025-12/tech-trends-2026-datenhoheit.png&quot; alt=&quot;Gegentrend: Datenhoheit&quot; /&gt;&lt;/p&gt;
&lt;h3&gt;Sovereign AI &amp;amp; Geopatriation&lt;/h3&gt;
&lt;p&gt;Unternehmen priorisieren 2026 zunehmend:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Data Residency&lt;/li&gt;
&lt;li&gt;Kontrolle über Modelle, Daten und Infrastruktur&lt;/li&gt;
&lt;li&gt;Unabhängigkeit von geopolitischen Risiken&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Dies ist weniger Ideologie als Risikomanagement. Heute kann keiner mehr Abschätzen was morgen von Politikern beschlossen wird. Regeln die früher galten, sind morgen nicht mehr gültig.&lt;br /&gt;
Als Unternehmen gilt es eine Risikobewertung vorzunehmen und ggf. auch die Datenhoheit wieder zu erlangen. Prozesse werden immer mehr auch danach bewertet werden, welche Systeme aus welchen Geo-Regionen verwendet werden. Das wird auch seinen Preis haben, den aber Unternehmen in 2026 mehr bereit sein werden zu zahlen. Vielleicht auch, damit der CEO in der Nacht gut schlafen kann.&lt;/p&gt;
&lt;h3&gt;Daten-Governance als Wettbewerbsvorteil&lt;/h3&gt;
&lt;p&gt;Datensicherheit wird kaufentscheidend:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Transparenz über Datenverarbeitung&lt;/li&gt;
&lt;li&gt;Vertrauen als Differenzierungsmerkmal&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Da immer mehr kriminelle Aktivitäten zu beobachten sind, wird &amp;quot;Trusted Retailer&amp;quot; wird zum echten Asset. Als Shop-Betreiber muss ich in 2026 mehr tun, damit Kunden sich sicher fühlen und damit diese auch wirklich sicher sind. Themen wie Käuferschutz, Zertifikate und Siegel aber auch das klare Kennzeichnen von Informationen sind noch wichtiger.&lt;/p&gt;
&lt;h3&gt;Magento Open Source &amp;amp; Hyvä als souveräne Alternative&lt;/h3&gt;
&lt;p&gt;Da ich selbst in dem Bereich tätig bin, muss ich an dieser Stelle auch etwas zum Magento Open Source Ökosystem schreiben.&lt;br /&gt;
Trotz der immer größeren &amp;quot;Kluft&amp;quot; zwischen Adobe Commerce und Magento Open Source abgrenzt sage ich folgendes vorraus:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Magento Open Source&lt;/strong&gt; bleibt strategisch wichtig für Mittelstand und Enterprise&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Hyvä&lt;/strong&gt; senkt Komplexität, modernisiert UX und reduziert Entwicklungskosten&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Damit entsteht eine echte Alternative zu globalen SaaS-Plattformen – insbesondere für Unternehmen mit regulatorischen oder sensiblen B2B-Anforderungen.&lt;/p&gt;
&lt;p&gt;Durch die Freigabe des Hyvä-Themes unter einer Open Source Lizenz, wird Hyvä auch in 2026 immer mehr Markt-Standard werden. Vielleicht wird dadurch auch 2026 der Hyvä Theme zum Standard-Theme des Forks Mage-OS. Dadurch wird das Entwickeln von Magento-Erweiterungen, die Hyvä-Kompatibel sind, nicht mehr optional sein. Es wird 2026 noch mehr Lösungen geben, die ein &amp;quot;Hyvä-Kompatibel-Badge&amp;quot; tragen.&lt;/p&gt;
&lt;p&gt;Adobe treibt seine SaaS Intitative weiter an. Wer den klassischen Monolith braucht da er nicht auf eine Microservice-Landschaft setzt, wird mehr und mehr zu Hyvä Commerce tendieren. Mehr dazu im nächsten Abschnitt.&lt;/p&gt;
&lt;h2&gt;Das E-Commerce Ökosystem: Die große Gabelung&lt;/h2&gt;
&lt;p&gt;Ich habe in der Überschrift bewusst &amp;quot;Gabelung&amp;quot; geschrieben und nicht Spaltung. Eine Spaltung gab es aus meiner Sicht bereits. Für mich sind bereits zwei Ökosysteme vorhanden die noch mit dem Magento Open Source Kern eine Schnittmenge habeben. Es werden aber fundamental unterschiedliche Zielgruppen mit den jeweiligen Lösungen bedient.&lt;br /&gt;
Als jemand, der tief im Magento-Ökosystem verwurzelt ist, finde ich die Entwicklung für 2026 genau deswegen besonders spannend. Es zeichnet sich eine deutliche Zweiteilung des Marktes ab: Adobe fokussiert sich weiter auf die Enterprise-Cloud, während Hyvä das Erbe von Magento Open Source modernisiert.&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2025-12/tech-trends-2026-magento-gabelung.png&quot; alt=&quot;&quot; /&gt;&lt;/p&gt;
&lt;h3&gt;Adobe Commerce: Cloud &amp;amp; Agentic AI&lt;/h3&gt;
&lt;p&gt;Adobe setzt voll auf Enterprise-Automatisierung und eine tiefere Integration in die Cloud.&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Neuer Release-Zyklus:&lt;/strong&gt; Ab Januar 2026 ändert sich alles. Statt riesiger Quartals-Updates gibt es monatliche, isolierte Sicherheits-Fixes. Das große Feature-Release (LTS) kommt nur noch einmal jährlich im Mai. Das soll &amp;quot;Upgrade-Spikes&amp;quot; glätten und die Wartung planbarer machen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Agentic Commerce:&lt;/strong&gt; Das neue &amp;quot;Merchant Center&amp;quot; wird eine KI-gestützte Kommandozentrale. KI-Agenten automatisieren Routineaufgaben – von der Konfiguration komplexer Werbeaktionen bis hin zur Fehlerbehebung bei Datensynchronisationen. Die Adobe Produkte wachsen auch optisch in 2026 immer mehr zusammen. Das wird man auch bei Adobe Commerce sehen. Dieses Jahr wurde schon am Admin-UI umgestyled. Über SDKs können App Builder Anwendungen aussehen wie jede andere Adobe-Anwendungen. Diese Vereinheitlichung der Optik wird auch 2026 weitergehen, mit dem Ziel dem Nutzer ein einheitliches System zu zeigen. Im Hintergrund arbeiten aber die anderne Systeme weiterhin über Schnittstellen zusammen. Das Ziel wird es sein, diese den Benutzern zu verstecken.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Edge Delivery für B2B:&lt;/strong&gt; Für B2B-Kunden werden &amp;quot;Drop-ins&amp;quot; eingeführt, die extrem schnelle Storefronts ermöglichen – mit Funktionen wie Bestelllisten und Unternehmenshierarchien. Bisher waren die EDS Storefronts überwiegend für B2C fokusiert. Im Jahr 2026 wird man erste B2B Cases sehen. Diese B2B-Shops werden international sein und mit schnellen Storefronts punkten.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;App Builder:&lt;/strong&gt; Mit nativer Unterstützung für Dokumenten-Datenbanken können wir Entwickler datenintensive Microservices direkt im Adobe-Ökosystem bauen, ohne externe AWS-Infrastruktur provisionieren zu müssen. Meine Voraussage für 2026 ist nicht sonderlich spannend hier. Es wird einfach mehr App-Builder Apps geben. Adobe arbeitet weiter daran, dass Entwickler es einfacher haben werden, bestehende Magento Module in App Builder Apps zu transformieren. Viele dieser Apps wird man aber nicht im Adobe Marketplace wahrnehmen, da diese in privaten Umgebungen betrieben werden.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;Hyvä: Vom Theme zur Plattform (&amp;quot;Hyvä Commerce&amp;quot;)&lt;/h3&gt;
&lt;p&gt;Hyvä entwickelt sich 2026 von einer reinen Frontend-Lösung zu einer umfassenden Plattform-Erweiterung, die Lücken füllt, die Adobe (bewusst) offen lässt.&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Admin Dashboard:&lt;/strong&gt; Hyvä revitalisiert das Backend mit einem neuen Widget-Framework. Händler können Daten wie Verkäufe, Core Web Vitals oder offene Aufgaben direkt im Admin-Panel visualisieren und personalisieren.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Enterprise-Ready:&lt;/strong&gt; Hyvä arbeitet aggressiv an der Kompatibilität mit Adobe Commerce Features wie &amp;quot;Negotiable Quotes&amp;quot; oder &amp;quot;Gift Registry&amp;quot;. Damit wird es zur echten Alternative für Enterprise-Kunden, die Luma oder PWA Studio vermeiden wollen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Checkout &amp;amp; Performance:&lt;/strong&gt; Der Checkout erhält neue Layouts und Login-Workflows. Zudem wandern Tools zur Bildoptimierung direkt in den Core, um externe Abhängigkeiten zu reduzieren.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;Magento Open Source lebt&lt;/h3&gt;
&lt;p&gt;Entgegen aller Unkenrufe bleibt Magento Open Source relevant. Getrieben durch das Hyvä-Ökosystem und die Community (Mage-OS), bleibt die Plattform stabil. Der neue Patch-Modell von Adobe (jährliches Feature-Release) gilt auch für die Open Source Variante, was Planungssicherheit bis 2027/2028 gibt. Da sich ein Unternehmen wie Hyvä nicht um die darunterliegendende Plattform kümmern muss, können die eigenen Mitarbeiter sich auf die innovative Weiterentwicklung fokussieren. Adobe selbst fokusiert sich nicht mehr auf die direkte Weiterentwicklung über Magento-Module. Genau hier wird Hyvä-Commerce zur neuen Standard-Lösung werden und mehr und mehr als eigene Marke (Shopsystem) wahrgenommen werden.&lt;/p&gt;
&lt;h2&gt;Coding &amp;amp; Data: Der Entwickler als Orchestrator&lt;/h2&gt;
&lt;p&gt;Die Rolle von uns Entwicklern verändert sich grundlegend. Wir bewegen uns weg von der reinen Syntax-Erstellung hin zur Orchestrierung von Systemen. Ich hatte es schon mehrfach in anderen Blog-Posts geschrieben. Der klassische Coder wird immer weniger gebraucht. Das wird 2026 noch krasser sein. Es werden mehr Software-Architekten benötigt. Diese Architekten geben nur noch ihre Wünsche als Anweisungen an die KI weiter. Der Code-Review wird dann noch vom Menschen gemacht. Auch beim Code-Review wird (aufgrund von Wettbewerbsdruck) immer mehr auf die KI-Mitarbeiter gesetzt werden. Das wird auch Probleme bringen. Man wird mehr von &amp;quot;KI-Pannen&amp;quot; hören da Code mehr und mehr ungesehen &amp;quot;durchgewunken&amp;quot; wird.&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2025-12/tech-trends-2026-modern-developer-beim-arbeiten.png&quot; alt=&quot;Der moderne Entwickler beim seiner Arbeit&quot; /&gt;&lt;/p&gt;
&lt;p&gt;Hier sind Sicherheitsmechanismen in der Entwicklung gefragt. Alle diese Themen waren schon 2025 und werden uns 2026 noch mehr beschäftigen. Da die meisten Entwickler kein Dinge wie Linux-Kernel-Entwicklung machen und oft Boilerplate-Code nur ergänzen, ist die Frage ob KI zum Einsatz kommt nicht mehr relevant. Entwickler die keine KI einsetzen, werden ersetzt werden. Entweder durch KI selbst oder durch Entwickler die erfahren im Einsatz mit KI-Tools sind.&lt;/p&gt;
&lt;h3&gt;Low-Code/No-Code vs. Coding Agents&lt;/h3&gt;
&lt;p&gt;Eine der meist diskutierten Fragen für 2026 lautet: Wird Low-Code/No-Code durch das direkte Erzeugen von Code via KI-Agenten ersetzt? Die kurze Antwort lautet: &lt;strong&gt;Nein – aber es verändert sich grundlegend.&lt;/strong&gt;&lt;/p&gt;
&lt;h4&gt;Wenn KI das Coden einfacher macht als No-Code&lt;/h4&gt;
&lt;p&gt;Klassische Drag-and-Drop-No-Code-Ansätze geraten unter Druck:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Komplexität vs. Prompting:&lt;/strong&gt; In vielen No-Code-Tools müssen Nutzer komplexe Logiken über verschachtelte Menüs abbilden. Mit KI-gestütztem Coding reicht oft ein präziser Prompt („Erstelle ein Verkaufs-Dashboard in Python“), und produktionsnaher Code entsteht in Sekunden.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;AI-Assisted Coding:&lt;/strong&gt; Tools wie Coding Agents, Copiloten oder IDEs mit KI machen das Schreiben von Code zugänglicher als je zuvor. Entscheidend ist nicht mehr Syntax-Wissen, sondern das Verständnis von Geschäftslogik.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Vibe Coding:&lt;/strong&gt; Es entsteht ein neues Paradigma, bei dem Menschen Software entwickeln, ohne klassische Entwickler zu sein – sie steuern KI-Agenten über Sprache. Dieses Modell konkurriert direkt mit dem ursprünglichen Versprechen von No-Code.&lt;/li&gt;
&lt;/ul&gt;
&lt;h4&gt;AI-Powered Low-Code&lt;/h4&gt;
&lt;p&gt;Gleichzeitig verschwinden Low-Code/No-Code-Plattformen nicht, sondern &lt;strong&gt;evolvieren&lt;/strong&gt;:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Co-Creation:&lt;/strong&gt; Entwickler und Fachbereiche beschreiben Prozesse, Datenmodelle oder Regeln in natürlicher Sprache – die Plattform generiert daraus lauffähige Module.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Intelligenz statt nur Geschwindigkeit:&lt;/strong&gt; Low-Code wird zur Orchestrierungs- und Skalierungsplattform, in die KI-Agenten fest integriert sind.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Marktrealität:&lt;/strong&gt; Prognosen gehen davon aus, dass ein Großteil neuer Unternehmensanwendungen auch 2026 auf Low-Code/No-Code-Plattformen entsteht – allerdings mit nativer KI als Kern.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Ich selbst arbeite viel mit n8n. In n8n sieht man das auch jetzt schon sehr gut. Hier gibt es immer mehr Integrationen für Entwickler direkt über MCP-Server die Workflows zu erzeugen. In der Cloud-Version ist zudem auch ein AI-Assistent integriert der auch direkt aus Sprache die Workflows vorbauen kann, die man dann nur noch modifiziert.&lt;br /&gt;
Low-Code Plattformen erlauben auch das Ausführen von reinen Code-Lösungen. Das ist charmant, denn man sieht dann den Prozess weiterhin visuelle. Hier verschmelzen bereits jetzt beide Ansätze.&lt;br /&gt;
In 2026 werden Low-Code Plattformen auch weiterhin relevant sein. Es wird mehr Lösungen geben die von AI-Coding-Agents generiert werden und in Low-Code Lösungen integriert sein werden.&lt;br /&gt;
Mehr dazu im nächsten Abschnitt.&lt;/p&gt;
&lt;h4&gt;Warum Low-Code/No-Code aus Unternehmenssicht bleibt&lt;/h4&gt;
&lt;p&gt;Trotz mächtiger Coding Agents behalten LCNC-Plattformen strategische Vorteile:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Governance &amp;amp; Sicherheit:&lt;/strong&gt; Sie liefern Leitplanken wie Architekturvorgaben, Compliance-Checks und Security-Scans für KI-generierten Code.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Legacy-Modernisierung:&lt;/strong&gt; Low-Code bleibt der effizienteste Weg, alte Systeme mit APIs, RPA und KI schrittweise zu modernisieren.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;Essenz:&lt;/strong&gt; Low-Code/No-Code wird nicht durch manuelles Coding ersetzt, sondern durch &lt;strong&gt;Natural Language Programming&lt;/strong&gt; erweitert. Das manuelle Zusammenklicken verliert an Bedeutung – die natürliche Sprache wird zur universellen Schnittstelle, egal ob innerhalb einer Plattform oder direkt im Code-Editor.&lt;/p&gt;
&lt;p&gt;KI ist 2026 der Standard-Partner beim Coden. Routineaufgaben wie Boilerplate-Code, Tests und Dokumentation werden fast vollständig automatisiert. Wir Entwickler fungieren zunehmend als &amp;quot;Architekten&amp;quot; und Prüfer des generierten Codes. Der &amp;quot;Vibe&amp;quot;, den ich beim Coden so schätze, verlagert sich auf das Lösen komplexer Architekturprobleme.&lt;/p&gt;
&lt;h3&gt;Data Governance &amp;amp; FinOps&lt;/h3&gt;
&lt;p&gt;Daten sind das Öl, aber ohne Raffinerie und Sicherheitsvorkehrungen nutzlos. Da KI-Modelle nur so gut sind wie ihre Daten, wird &lt;strong&gt;Data Governance&lt;/strong&gt; zur Priorität. &amp;quot;&lt;a href=&quot;https://cloud.google.com/discover/what-is-a-data-lakehouse?hl=de&quot;&gt;Lakehouses&lt;/a&gt;&amp;quot; (Unified Data Platforms) werden zum Standard, um Datensilos aufzubrechen. Gleichzeitig wird &lt;strong&gt;FinOps&lt;/strong&gt; für KI eine kritische Fähigkeit für Data Scientists: Es geht darum, die explodierenden Kosten für KI-Infrastruktur (Inference Costs) strikt zu kontrollieren.&lt;/p&gt;
&lt;h2&gt;KI im Alltag 2026: Vom Chatten zum Handeln&lt;/h2&gt;
&lt;p&gt;KI verlässt 2026 endgültig die Rolle eines reinen Bildschirm-Tools. Wir bewegen uns von einer Phase, in der wir mit KI &lt;em&gt;interagieren&lt;/em&gt;, hin zu einer, in der KI &lt;strong&gt;für uns handelt&lt;/strong&gt;, Entscheidungen trifft und physisch präsent wird. KI wird damit zur unsichtbaren Infrastruktur des Alltags.&lt;/p&gt;
&lt;h3&gt;Vom Assistenten zum digitalen „Angestellten&amp;quot;&lt;/h3&gt;
&lt;p&gt;Der fundamentalste Wandel ist der Aufstieg der &lt;strong&gt;Agentic AI&lt;/strong&gt;.&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Einkaufs- &amp;amp; Service-Bots:&lt;/strong&gt; Verbraucher delegieren Aufgaben an persönliche KI-Agenten, die Produkte finden, Preise verhandeln und Käufe abschließen. Entscheidungen, die früher langes Vergleichen erforderten, werden in Sekunden getroffen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Autonome Workflows:&lt;/strong&gt; Diese Agenten planen Reisen, verwalten Abonnements oder führen Finanztransaktionen selbstständig aus – mit klar definierten Leitplanken des Nutzers.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;Arbeit: Weniger Monotonie, mehr Wirkung&lt;/h3&gt;
&lt;p&gt;KI verändert nicht nur &lt;em&gt;was&lt;/em&gt; wir tun, sondern &lt;em&gt;wie&lt;/em&gt; wir arbeiten:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Fokus auf Strategie:&lt;/strong&gt; Routinetätigkeiten wie Rechnungsprüfung, Reporting oder Coding-Grundgerüste werden automatisiert. Menschen konzentrieren sich stärker auf Problemlösung, Kreativität und Entscheidungen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Demokratisierung von Fähigkeiten:&lt;/strong&gt; KI-gestütztes Coding und „Vibe Coding“ ermöglichen es auch Nicht-Entwicklern, Software zu erstellen, indem sie ihre Absicht beschreiben.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Der AI Generalist:&lt;/strong&gt; Digitale Grundfähigkeiten werden zum neuen Standard. Gefragt sind Menschen, die verschiedene KI-Systeme orchestrieren können.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;Hyper-Personalisierung &amp;amp; Zero-Click-Erlebnisse&lt;/h3&gt;
&lt;p&gt;Alltägliche digitale Erlebnisse werden 2026 hochgradig individuell:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Store of One:&lt;/strong&gt; Online-Shops, Inhalte und Preise werden in Echtzeit für jede einzelne Person generiert.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Prädiktive Services:&lt;/strong&gt; Systeme erkennen Bedürfnisse, bevor sie explizit formuliert werden – bis hin zum &lt;strong&gt;Zero-Click Commerce&lt;/strong&gt;, bei dem automatisch nachbestellt wird.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;Physische KI &amp;amp; immersive Realitäten im Alltag&lt;/h3&gt;
&lt;p&gt;Die Grenze zwischen digitaler und physischer Welt verschwimmt:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;AR &amp;amp; VR:&lt;/strong&gt; Virtuelle Anproben, immersives Lernen oder therapeutische Anwendungen werden alltäglich und senken Reibung sowie Kosten.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Physical AI:&lt;/strong&gt; Drohnen, Lieferroboter oder Assistenzsysteme in Krankenhäusern und der Logistik werden Teil des normalen Stadt- und Arbeitsbildes.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;Unsichtbare, sichere Transaktionen&lt;/h3&gt;
&lt;p&gt;Technologie tritt in den Hintergrund:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Biometrische Wallets:&lt;/strong&gt; Bezahlung und Identifikation erfolgen über Gesicht oder Fingerabdruck – schnell, sicher und ohne bewusste Interaktion.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Instant Refunds:&lt;/strong&gt; Rückerstattungen laufen automatisiert und nahezu in Echtzeit ab.&lt;/li&gt;
&lt;/ul&gt;
&lt;h3&gt;Kreativität für alle&lt;/h3&gt;
&lt;p&gt;Kreative KI wird massentauglich:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Nutzer erstellen, bearbeiten und personalisieren Inhalte mit wenigen Anweisungen.&lt;/li&gt;
&lt;li&gt;Eigene Modelle und Stile lassen sich ohne tiefes technisches Wissen einsetzen.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;Kurz gesagt:&lt;/strong&gt; KI ist 2026 kein separates Feature mehr, sondern eine &lt;strong&gt;stille, handelnde Infrastruktur&lt;/strong&gt;, die Aufgaben übernimmt, physisch unterstützt und genau zugeschnittene Erlebnisse – bei gleichzeitig wachsendem Anspruch an Transparenz, Kontrolle und Vertrauen.&lt;/p&gt;
&lt;h2&gt;Fazit: Der &amp;quot;AI Generalist&amp;quot;&lt;/h2&gt;
&lt;p&gt;Zusammenfassend lässt sich sagen: Die Arbeitswelt 2026 sucht den &lt;strong&gt;AI Generalisten&lt;/strong&gt;. Die Spezialisierung auf eine einzige Programmiersprache oder ein einziges Tool reicht oft nicht mehr aus. Gefragt sind Fachkräfte, die:&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;Orchestrieren:&lt;/strong&gt; KI-Tools und autonome Agenten zu einem funktionierenden Ganzen verknüpfen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Brücken bauen:&lt;/strong&gt; Die Verbindung zwischen physischer Hardware (Robotik &amp;amp; Consumer Devices) und digitaler Intelligenz herstellen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Verantwortung übernehmen:&lt;/strong&gt; Nachhaltigkeit nicht als Last, sondern als Optimierungsproblem verstehen und Governance-Strukturen etablieren.&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Es bleibt also spannend. Die Werkzeuge ändern sich radikal, aber die Notwendigkeit für kreative Problemlösung war noch nie so groß wie heute. Packen wir es an!&lt;/p&gt;</content>
        <author>
            <name>Christian Münch</name>
        </author>
    </entry>
    <entry>
        <title type="text">n8n 2.0 steht vor der Tür - Jetzt das eigene System vorbereiten!</title>
        <link href="https://muench.dev/post/2025-11-n8n-2-0-steht-vor-der-tuer"/>
        <id>https://muench.dev/post/2025-11-n8n-2-0-steht-vor-der-tuer</id>
        <published>2025-11-29T17:41:00+00:00</published>
        <updated>2025-11-29T23:01:58+01:00</updated>
        <summary/>
        <content type="html">&lt;p&gt;Die Spatzen pfeifen es bereits von den Dächern der Automatisierungs-Community: &lt;strong&gt;n8n 2.0 steht vor der Tür!&lt;/strong&gt; Kürzlich wurde im offiziellen Forum die &lt;a href=&quot;https://community.n8n.io/t/announcing-n8n-version-2-0-coming-soon/226475&quot;&gt;neue Version angekündigt&lt;/a&gt;, und wie bei jedem Major-Release bringt auch dieses Update einige spannende Neuerungen, aber auch &lt;strong&gt;Breaking Changes&lt;/strong&gt; mit sich.&lt;/p&gt;
&lt;p&gt;Die Beta soll bereits am &lt;strong&gt;8. Dezember&lt;/strong&gt; zur Verfügung stehen. Grund genug, sich jetzt schon mit den Änderungen vertraut zu machen und die eigene Infrastruktur vorzubereiten.&lt;/p&gt;
&lt;h2&gt;Vorbereitung ist alles: Der Migration Report&lt;/h2&gt;
&lt;p&gt;Ein Major-Update kann furchteinflößend sein, besonders wenn komplexe Workflows davon abhängen. Das Team von n8n hat hier jedoch mitgedacht. Es gibt einen integrierten &lt;strong&gt;Migration Report&lt;/strong&gt; direkt im Backend deiner n8n-Instanz unter &lt;code&gt;Settings -&amp;gt; Migration Report&lt;/code&gt;.&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2025-11/screenshot-2025-11-29_182127.png&quot; alt=&quot;Der praktiwsche Migration Reoort im n8n Backend&quot; /&gt;&lt;/p&gt;
&lt;p&gt;Dieser Report ist dein bester Freund für das Update. Er prüft deine vorhandenen Workflows und Einstellungen auf Herz und Nieren:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Welche Nodes sind inkompatibel?&lt;/li&gt;
&lt;li&gt;Welche Nodes sind von Änderungen betroffen?&lt;/li&gt;
&lt;li&gt;Welche Konfigurationen müssen angepasst werden?&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2025-11/screenshot-2025-11-29_182147.png&quot; alt=&quot;Einzelne Nodes werden geprüft&quot; /&gt;&lt;/p&gt;
&lt;p&gt;Ich empfehle jedem, diesen Report so früh wie möglich zu konsultieren, um böse Überraschungen beim Update zu vermeiden. Eine detaillierte Übersicht der Änderungen findest du auch in der offiziellen &lt;a href=&quot;https://docs.n8n.io/2-0-breaking-changes/&quot;&gt;Dokumentation zu den Breaking Changes&lt;/a&gt;.&lt;/p&gt;
&lt;h2&gt;Wichtige Breaking Changes im Überblick&lt;/h2&gt;
&lt;p&gt;Neben den architektonischen Änderungen gibt es einige harte Schnitte, die vor allem Self-Hoster betreffen. Hier sind die wichtigsten Punkte aus der Dokumentation:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Kein MySQL/MariaDB Support mehr:&lt;/strong&gt; n8n 2.0 stellt die Unterstützung für MySQL und MariaDB als Backend-Datenbank ein. Wenn du diese noch nutzt, ist jetzt der Zeitpunkt, auf &lt;strong&gt;PostgreSQL&lt;/strong&gt; zu migrieren. Der MySQL Support war aber auch schon beim 1.0 Release als deprecated markiert worden. Ich persönlich mag Postgres auch viel lieber.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Zugriff auf Environment Variables:&lt;/strong&gt; Aus Sicherheitsgründen können &lt;strong&gt;Code Nodes&lt;/strong&gt; standardmäßig nicht mehr auf Umgebungsvariablen zugreifen. Falls deine Skripte darauf angewiesen sind, musst du dies entweder explizit über die Variable &lt;code&gt;N8N_BLOCK_ENV_ACCESS_IN_NODE=false&lt;/code&gt; erlauben oder deine Workflows anpassen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Wegfall der Tunnel-Option:&lt;/strong&gt; Die Start-Option &lt;code&gt;--tunnel&lt;/code&gt;, die oft für schnelle lokale Tests mit Webhooks genutzt wurde, ist ersatzlos gestrichen.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Bereinigung alter Nodes:&lt;/strong&gt; Nodes für Dienste, die bereits eingestellt wurden oder veraltet sind, wurden nun endgültig aus dem Core entfernt.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2&gt;Eine große Änderung für mein Setup: Externe Task Runners&lt;/h2&gt;
&lt;p&gt;Eine der signifikantesten architektonischen Änderungen in n8n 2.0 betrifft die Ausführung von Code. Der interne Task Runner, der bisher &amp;quot;out-of-the-box&amp;quot; Python oder JavaScript Code ausgeführt hat, wird in Version 2.0 nicht mehr standardmäßig aktiv sein.&lt;/p&gt;
&lt;p&gt;Stattdessen setzt n8n nun auf &lt;strong&gt;externe Task Runners&lt;/strong&gt;. Das bedeutet, dass Code in einer Sandbox ausgeführt wird, die strikt von der n8n-Hauptinstanz getrennt ist. Das hat zwei große Vorteile:&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;Sicherheit:&lt;/strong&gt; Die Angriffsfläche für Hacks wird drastisch minimiert. Standardmäßig sind Nodes für &amp;quot;Git&amp;quot; oder Code-Execution eingeschränkt, sodass beispielsweise kein unkontrollierter Zugriff auf das Dateisystem mehr möglich ist. Natürlich lässt sich das über Einstellungen wieder lockern, wenn man genau weiß, was man tut.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Flexibilität:&lt;/strong&gt; Benötigst du spezielle Python-Bibliotheken oder Node-Pakete? Du kannst dir einfach dein eigenes Docker-Image für den Task Runner erstellen und hast genau die Umgebung, die du brauchst, ohne die Hauptinstanz aufzublähen.&lt;/li&gt;
&lt;/ol&gt;
&lt;h2&gt;Mein Setup: Task Runners im Worker Mode&lt;/h2&gt;
&lt;p&gt;Da ich mein n8n-Setup im &lt;strong&gt;Worker Mode&lt;/strong&gt; betreibe, um die Last besser zu verteilen, musste ich meine docker-compose.yaml etwas stärker anpassen. Die Herausforderung hierbei ist, dass nicht nur der Haupt-Container (Webhook-Prozessor), sondern auch die Worker Zugriff auf Task Runner benötigen.&lt;/p&gt;
&lt;p&gt;In meiner aktuellen Konfiguration, mit der ich mich auf die Umstellung vorbereite, habe ich deshalb dedizierte Task Runner Container für den Hauptprozess (n8n) und für den Worker (n8n_worker) definiert.&lt;/p&gt;
&lt;p&gt;Hier ist ein Einblick in meine docker-compose.yaml, wie sie aktuell läuft:&lt;/p&gt;
&lt;pre&gt;&lt;code class=&quot;language-yaml hljs yaml&quot; data-lang=&quot;yaml&quot;&gt;&lt;span class=&quot;hljs-attr&quot;&gt;x-n8n-task-runners:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;&amp;amp;service-task-runners-n8n&lt;/span&gt;  
  &lt;span class=&quot;hljs-attr&quot;&gt;image:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;ghcr.io/n8n-io/runners:1.122.1&lt;/span&gt;

&lt;span class=&quot;hljs-attr&quot;&gt;x-n8n:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;&amp;amp;service-n8n&lt;/span&gt;  
  &lt;span class=&quot;hljs-attr&quot;&gt;image:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;ghcr.io/n8n-io/n8n:1.122.1&lt;/span&gt;  
  &lt;span class=&quot;hljs-attr&quot;&gt;env_file:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;.env&lt;/span&gt;  
  &lt;span class=&quot;hljs-attr&quot;&gt;networks:&lt;/span&gt;  
    &lt;span class=&quot;hljs-bullet&quot;&gt;-&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;default&lt;/span&gt;  
  &lt;span class=&quot;hljs-attr&quot;&gt;user:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;node&lt;/span&gt;  
  &lt;span class=&quot;hljs-attr&quot;&gt;volumes:&lt;/span&gt;  
    &lt;span class=&quot;hljs-bullet&quot;&gt;-&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;n8n-data:/home/node/.n8n&lt;/span&gt;  
    &lt;span class=&quot;hljs-bullet&quot;&gt;-&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;&quot;./data:/data&quot;&lt;/span&gt;  
  &lt;span class=&quot;hljs-attr&quot;&gt;restart:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;unless-stopped&lt;/span&gt;

&lt;span class=&quot;hljs-attr&quot;&gt;services:&lt;/span&gt;  
  &lt;span class=&quot;hljs-attr&quot;&gt;n8n:&lt;/span&gt;  
    &lt;span class=&quot;hljs-string&quot;&gt;&amp;lt;&amp;lt;:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;*service-n8n&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;container_name:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;n8n&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;ports:&lt;/span&gt;  
      &lt;span class=&quot;hljs-bullet&quot;&gt;-&lt;/span&gt; &lt;span class=&quot;hljs-number&quot;&gt;0.0&lt;/span&gt;&lt;span class=&quot;hljs-number&quot;&gt;.0&lt;/span&gt;&lt;span class=&quot;hljs-number&quot;&gt;.0&lt;/span&gt;&lt;span class=&quot;hljs-string&quot;&gt;:5678:5678&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;depends_on:&lt;/span&gt;  
      &lt;span class=&quot;hljs-attr&quot;&gt;redis:&lt;/span&gt;  
        &lt;span class=&quot;hljs-attr&quot;&gt;condition:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;service_healthy&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;env_file:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;.env&lt;/span&gt;

  &lt;span class=&quot;hljs-attr&quot;&gt;n8n_worker:&lt;/span&gt;  
    &lt;span class=&quot;hljs-string&quot;&gt;&amp;lt;&amp;lt;:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;*service-n8n&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;container_name:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;n8n_worker&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;command:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;worker&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;--concurrency=6&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;depends_on:&lt;/span&gt;  
      &lt;span class=&quot;hljs-bullet&quot;&gt;-&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;n8n&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;env_file:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;.env&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;environment:&lt;/span&gt;  
      &lt;span class=&quot;hljs-attr&quot;&gt;N8N_WORKER_MODE:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;&quot;true&quot;&lt;/span&gt;  
      &lt;span class=&quot;hljs-attr&quot;&gt;OFFLOAD_MANUAL_EXECUTIONS_TO_WORKERS:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;&quot;true&quot;&lt;/span&gt;

  &lt;span class=&quot;hljs-attr&quot;&gt;n8n_main_task_runners:&lt;/span&gt;  
    &lt;span class=&quot;hljs-string&quot;&gt;&amp;lt;&amp;lt;:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;*service-task-runners-n8n&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;container_name:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;n8n_task_runners&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;env_file:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;.env&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;restart:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;unless-stopped&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;environment:&lt;/span&gt;  
      &lt;span class=&quot;hljs-bullet&quot;&gt;-&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;N8N_RUNNERS_TASK_BROKER_URI=http://n8n:5679&lt;/span&gt;  
      &lt;span class=&quot;hljs-bullet&quot;&gt;-&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;N8N_RUNNERS_MAX_CONCURRENCY=5&lt;/span&gt;  
      &lt;span class=&quot;hljs-bullet&quot;&gt;-&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;N8N_RUNNERS_AUTO_SHUTDOWN_TIMEOUT=15&lt;/span&gt;  
      &lt;span class=&quot;hljs-bullet&quot;&gt;-&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;N8N_NATIVE_PYTHON_RUNNER=&quot;true&quot;&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;depends_on:&lt;/span&gt;  
      &lt;span class=&quot;hljs-bullet&quot;&gt;-&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;n8n&lt;/span&gt;

  &lt;span class=&quot;hljs-attr&quot;&gt;n8n_worker_task_runners:&lt;/span&gt;  
    &lt;span class=&quot;hljs-string&quot;&gt;&amp;lt;&amp;lt;:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;*service-task-runners-n8n&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;container_name:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;n8n_worker_task_runners&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;env_file:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;.env&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;restart:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;unless-stopped&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;environment:&lt;/span&gt;  
      &lt;span class=&quot;hljs-bullet&quot;&gt;-&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;N8N_RUNNERS_TASK_BROKER_URI=http://n8n_worker:5679&lt;/span&gt;  
      &lt;span class=&quot;hljs-bullet&quot;&gt;-&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;N8N_RUNNERS_MAX_CONCURRENCY=5&lt;/span&gt;  
      &lt;span class=&quot;hljs-bullet&quot;&gt;-&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;N8N_RUNNERS_AUTO_SHUTDOWN_TIMEOUT=15&lt;/span&gt;  
      &lt;span class=&quot;hljs-bullet&quot;&gt;-&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;N8N_NATIVE_PYTHON_RUNNER=&quot;true&quot;&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;depends_on:&lt;/span&gt;  
      &lt;span class=&quot;hljs-bullet&quot;&gt;-&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;n8n_worker&lt;/span&gt;

  &lt;span class=&quot;hljs-attr&quot;&gt;redis:&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;container_name:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;n8n_redis&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;image:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;redis:8-alpine@sha256:5013e94192ef18a5d8368179c7522e5300f9265cc339cadac76c7b93303a2752&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;restart:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;unless-stopped&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;networks:&lt;/span&gt;  
      &lt;span class=&quot;hljs-bullet&quot;&gt;-&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;default&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;volumes:&lt;/span&gt;  
      &lt;span class=&quot;hljs-bullet&quot;&gt;-&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;redis-data:/data&lt;/span&gt;  
    &lt;span class=&quot;hljs-attr&quot;&gt;healthcheck:&lt;/span&gt;  
      &lt;span class=&quot;hljs-attr&quot;&gt;test:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;['CMD',&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;'redis-cli'&lt;/span&gt;&lt;span class=&quot;hljs-string&quot;&gt;,&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;'ping'&lt;/span&gt;&lt;span class=&quot;hljs-string&quot;&gt;]&lt;/span&gt;  
      &lt;span class=&quot;hljs-attr&quot;&gt;interval:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;5s&lt;/span&gt;  
      &lt;span class=&quot;hljs-attr&quot;&gt;timeout:&lt;/span&gt; &lt;span class=&quot;hljs-string&quot;&gt;5s&lt;/span&gt;  
      &lt;span class=&quot;hljs-attr&quot;&gt;retries:&lt;/span&gt; &lt;span class=&quot;hljs-number&quot;&gt;10&lt;/span&gt;

&lt;span class=&quot;hljs-attr&quot;&gt;volumes:&lt;/span&gt;  
  &lt;span class=&quot;hljs-attr&quot;&gt;n8n-data:&lt;/span&gt;  
  &lt;span class=&quot;hljs-attr&quot;&gt;redis-data:&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;
&lt;p&gt;In meiner &lt;code&gt;.env&lt;/code&gt; Datei habe ich erstmal folgende Variablen zusätzlich eingetragen:&lt;/p&gt;
&lt;pre&gt;&lt;code class=&quot;language-bash hljs bash&quot; data-lang=&quot;bash&quot;&gt;&lt;span class=&quot;hljs-comment&quot;&gt;# Task Runners&lt;/span&gt;
N8N_RUNNERS_AUTH_TOKEN=&amp;lt;xxxxxxxxxx&amp;gt;
N8N_RUNNERS_ENABLED=&lt;span class=&quot;hljs-literal&quot;&gt;true&lt;/span&gt;
N8N_RUNNERS_MODE=external
N8N_RUNNERS_BROKER_LISTEN_ADDRESS=0.0.0.0

&lt;span class=&quot;hljs-comment&quot;&gt;# Auth&lt;/span&gt;
N8N_SKIP_AUTH_ON_OAUTH_CALLBACK=&lt;span class=&quot;hljs-literal&quot;&gt;false&lt;/span&gt;

&lt;span class=&quot;hljs-comment&quot;&gt;# Git&lt;/span&gt;
N8N_GIT_NODE_DISABLE_BARE_REPOS=&lt;span class=&quot;hljs-literal&quot;&gt;false&lt;/span&gt;

N8N_RESTRICT_FILE_ACCESS_TO=/data

&lt;span class=&quot;hljs-comment&quot;&gt;# Allow all excluded nodes&lt;/span&gt;
NODES_EXCLUDE=&lt;span class=&quot;hljs-string&quot;&gt;&quot;[]&quot;&lt;/span&gt;
&lt;/code&gt;&lt;/pre&gt;
&lt;p&gt;Die Einstellungen sind jetzt erstmal so gewählt, dass meine Workflows weiterlaufen können nach dem Update. Ich habe eine paar wenige Nodes die direkte Bash-Befehle ausführen. Diese arbeiten aber bei mir sowieso nur im Container im Verzeichnis &lt;code&gt;/data&lt;/code&gt;.&lt;/p&gt;
&lt;p&gt;Wie ihr seht, habe ich n8n_main_task_runners und n8n_worker_task_runners definiert, die jeweils via &lt;code&gt;N8N_RUNNERS_TASK_BROKER_URI&lt;/code&gt; mit ihrem entsprechenden n8n-Service verbunden sind. Ob dies die absolut optimale Lösung für jedes Szenario ist, wird sich in der Praxis zeigen, aber es ist ein funktionierender Weg, um die neue Architektur im Worker-Mode abzubilden.&lt;/p&gt;
&lt;h2&gt;Neue Features: Mehr Komfort für Workflow-Builder&lt;/h2&gt;
&lt;p&gt;Neben den technischen Änderungen unter der Haube gibt es auch sichtbare Verbesserungen, die das Arbeiten mit n8n angenehmer machen:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Verbesserte Canvas:&lt;/strong&gt; Der Workflow-Editor (Canvas) erhält einen frischen Look and Feel, der moderner und aufgeräumter wirkt (Leider habe ich bisher keinen Screenshot gesehen).&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Neue Sidebar:&lt;/strong&gt; Die Seitenleiste wurde überarbeitet, um die Navigation und den Zugriff auf wichtige Funktionen zu verbessern. Ich bin gespannt ob die Sidebar auch in der Community-Version eine Funktion bekommt,&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Autosave (Bald verfügbar):&lt;/strong&gt; Endlich! Eines der am meisten gewünschten Features kommt. Das automatische Speichern von Workflows wird kurz nach dem Stable-Release eingeführt. Nie wieder verlorene Arbeit durch vergessene Klicks auf &amp;quot;Speichern&amp;quot;. Das Feature klingt einfach, ist es aber im Hintergrund nicht.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2&gt;Fazit&lt;/h2&gt;
&lt;p&gt;Der Schritt zu n8n 2.0 ist ein wichtiger Meilenstein, der vor allem in puncto Sicherheit und Stabilität Verbesserungen bringt. Wer komplexe Setups betreibt, sollte die Zeit bis zum Release nutzen, um seine docker-compose Konfiguration anzupassen und die Migrations-Tools zu nutzen.&lt;/p&gt;
&lt;p&gt;So ein richtiges Fazit kann es jetzt auch noch nicht geben da die Version ja noch nicht da ist.&lt;br /&gt;
Ich bin gespannt auf den 8. Dezember!&lt;/p&gt;</content>
        <author>
            <name>Christian Münch</name>
        </author>
    </entry>
    <entry>
        <title type="text">Rückblick auf den 53. Magento Stammtisch Rhein-Main</title>
        <link href="https://muench.dev/post/2025-11-rueckblick-auf-den-53-magento-stammtisch-rhein-main"/>
        <id>https://muench.dev/post/2025-11-rueckblick-auf-den-53-magento-stammtisch-rhein-main</id>
        <published>2025-11-21T11:49:00+00:00</published>
        <updated>2025-11-23T11:27:40+01:00</updated>
        <summary/>
        <content type="html">&lt;p&gt;Es war mal wieder soweit: Die Magento Community im Rhein-Main-Gebiet traf sich zur 53. Ausgabe des Stammtischs. Diesmal hatte &lt;a href=&quot;https://e3n.de/&quot;&gt;e3n&lt;/a&gt; nach Mainz eingeladen, und die Räumlichkeiten wurden freundlicherweise von der &lt;a href=&quot;https://www.thieleklose.de&quot;&gt;Thiele &amp;amp; Klose GmbH&lt;/a&gt; zur Verfügung gestellt.&lt;/p&gt;
&lt;p&gt;Was mich besonders gefreut hat: Der Stammtisch war richtig gut besucht. Einige Teilnehmer hatten auch ein weite Anreise auf sich genommen. Das zeigt, dass das Format und der persönliche Austausch nach wie vor extrem wertvoll sind.&lt;/p&gt;
&lt;p&gt;Ein großes Dankeschön vorab auch für das Catering. Es gab leckeres Essen und Getränke – etwas, das ich in der heutigen Zeit keineswegs als selbstverständlich ansehe. So gestärkt ging es dann an die zwei Hauptthemen des Abends.&lt;/p&gt;
&lt;h2&gt;Performance-Tuning aus der Sicht des Hosters&lt;/h2&gt;
&lt;p&gt;Den Anfang machte &lt;a href=&quot;https://www.linkedin.com/in/jonas-h%C3%BCnig-a2a26310b/&quot;&gt;Jonas Hünig&lt;/a&gt; von &lt;a href=&quot;https://maxcluster.de/&quot;&gt;maxcluster&lt;/a&gt;. Sein Thema &amp;quot;Performance-Tuning für Magento&amp;quot; ist ein Dauerbrenner, aber Jonas hat einen sehr interessanten Blickwinkel gewählt: die Perspektive des Hosters.&lt;/p&gt;
&lt;p&gt;Langsame Shop-Instanzen sind frustrierend – für Kunden, Händler und Entwickler. Jonas zeigte auf, wie man typische Flaschenhälse systematisch aufspürt und analysiert. Besonders gut gefiel mir, dass der Vortrag nicht als reine Verkaufsveranstaltung für maxcluster angelegt war. Die gezeigten Methoden zur Diagnose und die Stellschrauben bei den Serverdiensten waren so aufbereitet, dass sie auch für Hostings außerhalb von maxcluster funktionieren.&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2025-11/pxl_20251119_190006051.jpg&quot; alt=&quot;MySQL Perormance Monitoring&quot; /&gt;&lt;/p&gt;
&lt;p&gt;Dabei ging es erfreulich tief in die Technik: Jonas sprach auch &lt;strong&gt;Linux Kernel spezifische Optimierungen&lt;/strong&gt; an und zeigte live den Einsatz von &lt;code&gt;strace&lt;/code&gt; zur Analyse. Mir persönlich hat dieser sehr technische Deep-Dive extrem gut gefallen.&lt;/p&gt;
&lt;p&gt;Natürlich gab es &amp;quot;on top&amp;quot; noch ein paar Insider-Infos zum speziellen Setup bei maxcluster und wie man dort bestimmte Probleme noch effizienter lösen kann.&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;&lt;strong&gt;Kleines Highlight am Rande:&lt;/strong&gt; maxcluster hatte für jeden Teilnehmer ein kleines Geschenk dabei. Danke für das nette kleine LED-Lampe! Diese hat bei mir zuhause schon seinen Platz gefunden und ist aufgebaut.&lt;/p&gt;
&lt;/blockquote&gt;
&lt;h2&gt;Hype oder echter Wandel? Wie KI das Coding verändert&lt;/h2&gt;
&lt;p&gt;Der zweite Speaker war &lt;a href=&quot;https://www.linkedin.com/in/tniebergall/&quot;&gt;Tobias Niebergall&lt;/a&gt; von e3n. Sein Vortrag knüpfte nahtlos an Themen an, die mich selbst in den letzten Wochen &lt;a href=&quot;/categories/ki&quot;&gt;hier im Blog&lt;/a&gt; intensiv beschäftigt haben. Unter dem Titel &lt;em&gt;&amp;quot;Hype oder echter Wandel? Wie KI das Coding wirklich verändert&amp;quot;&lt;/em&gt; ging es um den Begriff &lt;strong&gt;Vibe Coding&lt;/strong&gt;.&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2025-11/pxl_20251119_200059841.mp.jpg&quot; alt=&quot;Tobias startet mit seinem Vibe Coding Vortrag&quot; /&gt;&lt;/p&gt;
&lt;p&gt;Tobias zeigte, dass KI-gestützte Entwicklung weit mehr ist als nur Code-Vervollständigung. Es geht um den Aufbau smarter Workflows. Anhand von Tools wie &lt;strong&gt;Claude&lt;/strong&gt;, &lt;strong&gt;MCP-Servern&lt;/strong&gt; (Model Context Protocol) und &lt;strong&gt;n8n&lt;/strong&gt; demonstrierte er, wie man sein Entwickler-Team produktiver machen kann. Auch die Sicherheit in Verbindung mit AI-Tools war ein Thema.&lt;/p&gt;
&lt;p&gt;Die Kernpunkte waren praxisnah:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Wie setze ich KI gezielt ein, um im &amp;quot;Flow&amp;quot; zu bleiben?&lt;/li&gt;
&lt;li&gt;Automatisierung von repetitiven Aufgaben (etwas, das ich mit meinen Agenten-Experimenten nur bestätigen kann).&lt;/li&gt;
&lt;li&gt;Wie man Ideen viel schneller in funktionierende Prototypen und Lösungen umsetzt.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Ziel war es, den Entwicklern im Raum die Berührungsängste zu nehmen und Wege zu zeigen, wie man KI schrittweise in den eigenen Alltag integriert.&lt;/p&gt;
&lt;h2&gt;Wilde Diskussionen zum Abschluss&lt;/h2&gt;
&lt;p&gt;Wie es sich für einen guten Stammtisch gehört, war nach den Vorträgen noch lange nicht Schluss. Gerade der Vortrag von Tobias hat den Nerv der Zeit getroffen und eine ordentliche Diskussion entfacht.&lt;/p&gt;
&lt;p&gt;Es ging thematisch einmal querbeet:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Ausbildung:&lt;/strong&gt; Lernen Junioren noch richtig Coden, wenn die KI alles übernimmt?&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Software-Qualität:&lt;/strong&gt; Wird der Code besser oder fluten wir unsere Repositories mit KI-generiertem Spaghetti-Code?&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Nachhaltigkeit:&lt;/strong&gt; Wie sieht eigentlich der CO2-Fußabdruck aus, wenn wir für jede kleine Funktion ein LLM befeuern?&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Security &amp;amp; WAFs:&lt;/strong&gt; Auch der Einsatz von Web Application Firewalls wurde diskutiert. Hier hatte &lt;a href=&quot;https://www.linkedin.com/in/bj%C3%B6rn-kraus-1a588418/&quot;&gt;Björn Kraus&lt;/a&gt; wertvolle Tipps zum Umgang mit &lt;code&gt;mod_security&lt;/code&gt; parat und wies darauf hin, dass viele dieser Best Practices bereits in seinem &lt;a href=&quot;https://github.com/PHOENIX-MEDIA/magento2-helm&quot;&gt;Magento Helm-Chart&lt;/a&gt; implementiert sind (siehe auch: &lt;a href=&quot;https://github.com/PHOENIX-MEDIA/modsecurity-crs-proxy&quot;&gt;modsecurity-crs-proxy&lt;/a&gt;).&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Es war – im positivsten Sinne – ganz schön wild. Aber genau das macht für mich einen Stammtisch aus: Unterschiedliche Meinungen, leidenschaftliche Debatten und am Ende geht man mit neuen Impulsen nach Hause.&lt;/p&gt;
&lt;p&gt;Danke an e3n, Thiele &amp;amp; Klose, maxcluster, die Speaker und alle, die da waren. Es war ein gelungener Abend!&lt;/p&gt;</content>
        <author>
            <name>Christian Münch</name>
        </author>
    </entry>
    <entry>
        <title type="text">Was macht Codex gerade? Mehr Übersicht mit dem Tool CodeXRays</title>
        <link href="https://muench.dev/post/2025-10-was-macht-codex-gerade-mehr-uebersicht-mit-dem-tool-codexrays"/>
        <id>https://muench.dev/post/2025-10-was-macht-codex-gerade-mehr-uebersicht-mit-dem-tool-codexrays</id>
        <published>2025-10-29T07:25:00+00:00</published>
        <updated>2025-10-29T09:00:18+01:00</updated>
        <summary/>
        <content type="html">&lt;p&gt;Ich arbeite sehr gerne mit Codex über die CLI. Das Codex CLI wird mit jedem Release besser. Wenn man versucht nachzuvollziehen was Codex so macht, kann das teilweise sehr unübersichtlich sein. Gerade, wenn eine Session über längere Zeit läuft, entstehen sehr lange Log-Ausgaben. Codex versucht die Ausgaben zwar so benutzrerfreundlich wie möglich zu gestalten indem u.a. Emojis verwendet werden oder auch die Ausgaben mit Bullet-Points strukturiert werden, aber es ist trotzdem nicht immmer möglich denn Überblick zu behalten.&lt;/p&gt;
&lt;p&gt;Da unser Job als Software-Entwickler immer mehr in die Richtung der Überwachung der KI geht, ist es wichtig den Überblick zu behalten.&lt;/p&gt;
&lt;p&gt;Ich bin in dem Zug auf das Tool CodeXRays gestoßen. Das Tool ist in Python geschrieben und analysiert die Log-Ausgaben von Codex in Echtzeit. Man startet es einfach parallel zu seiner Codex Session.&lt;/p&gt;
&lt;h2&gt;Installation und Konfiguration&lt;/h2&gt;
&lt;p&gt;Die Installation erfolgt im einfachsten Fall über pipx. Das Tool pipx solltet ihr in eurer Entwicklungsumgebung einfach an den Start bringen können, falls es nicht sowieso schon da ist.&lt;/p&gt;
&lt;p&gt;Hier ist der Einzeiler der das Tool direkt aus dem GitHub Repo installiert:&lt;/p&gt;
&lt;pre&gt;&lt;code class=&quot;language-bash hljs bash&quot; data-lang=&quot;bash&quot;&gt;pipx install git+https://github.com/gastonmorixe/codex-xrays
&lt;/code&gt;&lt;/pre&gt;
&lt;p&gt;Wichtig ist es jetzt, dass wir den Logger des in Rust geschriebenen codex-cli konfigurieren. Das passiert durch das Setzen der Umgebungsvariable &lt;code&gt;RUST_LOG&lt;/code&gt;.&lt;br /&gt;
Wenn ihr die Variable immer gesetzt haben wollt, dann schreibt folgendes in eure .zshrc oder .bashrc (je nach Shell etwas abweichend):&lt;/p&gt;
&lt;pre&gt;&lt;code class=&quot;language-bash hljs bash&quot; data-lang=&quot;bash&quot;&gt;RUST_LOG=codex_core=trace,codex_exec=debug,codex_mcp_client=debug
&lt;/code&gt;&lt;/pre&gt;
&lt;p&gt;Alternativ kann man die Variable auch direkt vor die Ausführung von &lt;code&gt;codex-xrays&lt;/code&gt; schreiben.&lt;br /&gt;
Das sollte es mit dem Setup gewesen sein.&lt;/p&gt;
&lt;h2&gt;So wird das Log schön (Ausführen)&lt;/h2&gt;
&lt;p&gt;Wir schon geschrieben läuft das Tool in Regel paralle zur Codex CLI Ausführung. Ihr startet also eure Codex Session ganz normal.&lt;br /&gt;
In einem zweiten Terminal startet man dann codex-xrays.&lt;br /&gt;
Empfohlen ist das Starten mit folgendem Befehl um die schönste Ausgabe zu bekommen:&lt;/p&gt;
&lt;pre&gt;&lt;code class=&quot;language-bash hljs bash&quot; data-lang=&quot;bash&quot;&gt;codex-xrays --pretty-preview --pretty-mode hybrid --json-pretty
&lt;/code&gt;&lt;/pre&gt;
&lt;h3&gt;Beispielausgabe&lt;/h3&gt;
&lt;p&gt;In meinem Fall habe ich mal meine AGENTS.md in einem Projekt aktualisieren gelassen.&lt;br /&gt;
CodexXRays ist interaktiv. Ihr könnt in dem Fenster dann mit den Cursor&lt;/p&gt;
&lt;p&gt;Tasten die Log-Meldungen auswählen und über &amp;quot;Return&amp;quot; dann die ausführlichen Meldungen sehen.&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2025-10/screenshot_codexxrays_20251029_082850.png&quot; alt=&quot;Codex-X-Rays im Terminal mit Detailausgabe einer Log-Meldung&quot; /&gt;&lt;/p&gt;
&lt;p&gt;Wichtig für mich ist es auch mal zu sehen was für Befehle da genau in der Bash ausgeführt werden wie hier im Beispiel zu sehen ist:&lt;/p&gt;
&lt;p&gt;&lt;a href=&quot;/assets/content/blog/2025-10/screenshot_codexxrays_20251029_082802.png&quot;&gt;&lt;img src=&quot;/assets/content/blog/2025-10/screenshot_codexxrays_20251029_082802.png&quot; alt=&quot;&quot; /&gt;&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Ich werde das Tool mal weiter auspobieren. Es ist auch möglich im Terminal zu filtern, einzelne Meldungen zu pinnen oder auch mal das Logging während einer aktiven Session zu pausieren.&lt;br /&gt;
Das kann alles ganz praktisch sein.&lt;br /&gt;
Ich hoffe ihr könnt mit dem Tool auch euren Ablauf optimieren.&lt;/p&gt;</content>
        <author>
            <name>Christian Münch</name>
        </author>
    </entry>
    <entry>
        <title type="text">Kleines Open Source Projekt Update - Oktober 2025</title>
        <link href="https://muench.dev/post/2025-10-kleines-open-source-projekt-update-oktober-2025"/>
        <id>https://muench.dev/post/2025-10-kleines-open-source-projekt-update-oktober-2025</id>
        <published>2025-10-23T12:40:00+00:00</published>
        <updated>2025-10-23T18:01:39+02:00</updated>
        <summary/>
        <content type="html">&lt;p&gt;Das wird hier kein großer Blog-Post. Allerdings gehen die kleinen Projekte von mir gerne mal unter. Seit einer Weile habe ich zwei n8n Nodes als Community Nodes veröffentlicht. Das eine stellt Nodes für das PKM Tool Capacities bereit. Das andere Tool erlaubt es in n8n mit der Social Media Platform Bluesky zu kommunizieren.&lt;/p&gt;
&lt;p&gt;Beiden Projekten habe ich (nach längerer Zeit) mal wieder ein Update spendiert.&lt;/p&gt;
&lt;h2&gt;Capacities (n8n-nodes-capacities)&lt;/h2&gt;
&lt;p&gt;Hier ist die Capacities API leider noch etwas limitiert. Ich versuche die bestehende API komplett abzudecken. Ein kleines Feature in der Suche hatte noch gefehlt. Die Suchanfragen kann nun nach &amp;quot;Strukturen&amp;quot; filtern. Das ist wichtig, dass man z.B. nur Weblinks oder nur Seiten suchen möchte.&lt;br /&gt;
Bisher musste man dann die Ergebnismenge selbst in n8n filtern.&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2025-10/screenshot_n8n_capcities_search_structure_filter_20251023_163553.png&quot; alt=&quot;Structure Filter&quot; /&gt;&lt;/p&gt;
&lt;p&gt;Es können auch mehre Strukturen angegeben werden.&lt;/p&gt;
&lt;h2&gt;n8n Bluesky Node (n8n-nodes-bluesky)&lt;/h2&gt;
&lt;p&gt;Ein von einigen Benutzern lange gewünschtes Feature (&lt;a href=&quot;https://github.com/muench-dev/n8n-nodes-bluesky/issues/9&quot;&gt;GitHub Issue #9&lt;/a&gt;) ist, dass man Bilder direkt posten kann.&lt;br /&gt;
Bisher konnte man Bilder nur indirekt über das Laden mittels &amp;quot;Fetch Open Graph Tags&amp;quot; einem Post hinzufügen.&lt;/p&gt;
&lt;p&gt;Mit dem neuen Update gibt es jetzt die Möglichkeit, dass man direkt ein Image-Binary in das Bluesky Node packt.&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2025-10/screenshot_image_in_n8n_bluesky_flow_20251023_163153.png&quot; alt=&quot;&quot; /&gt;&lt;/p&gt;
&lt;p&gt;Auch Meta-Daten können übergeben werden wie man im Screenshot sieht.&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;/assets/content/blog/2025-10/screenshot_n8n_bluesky_image_upload_20251023_163124.png&quot; alt=&quot;&quot; /&gt;&lt;/p&gt;
&lt;p&gt;Auf den ersten Blick sieht das ganz einfach aus. Allerdings darf eine Bilddatei nicht größer als ca. 950 KByte sein. Das bedeutet, dass bei zu großen Bildern ein Fehler auftauchen würde. Ich habe hier den Weg gewählt, dass im Node die Library &amp;quot;sharp&amp;quot; dann das Bild on-the-fly verkleinert. Die Logik hatte ich schon für das &amp;quot;Fetch Open Graph Tags&amp;quot; Feature implementiert und konnte diese wiederverwenden.&lt;br /&gt;
Zudem muss man bei Bluesky über die API in zwei Stufen arbeiten. Erst das Bild hochladen. Dann den Post erstellen mit der Medien-ID des hochgeladenen Bild.&lt;/p&gt;
&lt;h2&gt;n98-magerun2&lt;/h2&gt;
&lt;p&gt;Bei n98-magerun2 ist ja immer was zu tun. Größere Features und Entwicklungen gibt es hier nicht. Allerdings gibt es immer auch mal Wartungen zu machen. Diesen Monat war z.B. der GPG Key der die Phar Dateien signiert abgelaufen und musste verlängert werden. Dazu habe ich mit jetzt einen Reminder (und eine kleine Anleitung für mich) erstellt, damit in zwei Jahren nicht wieder irgendwelche GitHub Actions mit komischen Meldungen fehlschlagen.&lt;/p&gt;
&lt;p&gt;Ein weiteres offenes Thema war das Update des genutzten &amp;quot;GitHub Superlinter&amp;quot; auf die Version 8. Hier musste ich einige Konfiguration anpassen.&lt;/p&gt;
&lt;hr /&gt;
&lt;p&gt;Das war es dann auch schon mit meinem kleinen Status Update für den Oktober 2025. Mal sehen was der November alles bereithält.&lt;br /&gt;
Als kleiner Spoiler... Es könnte sein, dass ich etwas in Richtung Adobe App Builder veröffentlichen werde.&lt;/p&gt;</content>
        <author>
            <name>Christian Münch</name>
        </author>
    </entry>
</feed>
