KI und NoCode in der Praxis: Ein Framework für den Mittelstand

Wer heute nach Künstlicher Intelligenz googelt, findet unzählige theoretische Whitepapers und noch mehr hochglänzende Marketing-Versprechen. Doch wenn du versuchst, diese Konzepte auf einen echten Handwerksbetrieb oder ein mittelständisches Unternehmen zu übertragen, klafft da eine riesige Lücke. Wie hilft ein Sprachmodell, wenn draußen auf der Baustelle die Bude absäuft und der Disponent das richtige Servicefahrzeug finden muss? Wie kommen die Daten aus dem verstaubten ERP-System sicher in eine moderne KI-Umgebung?

In den vergangenen Jahren habe ich in über 30 Tutorials, Experimenten und Deep-Dives genau diese Lücke untersucht. Ich habe getestet, wie sich lokale Datenbanken, Automatisierungstools wie Make und Sprachmodelle ohne tiefgreifende Programmierkenntnisse verbinden lassen.

In diesem Artikel ziehe ich die Essenz aus all diesen Projekten. Wir schauen uns an, welche Technologien wirklich praxistauglich sind, wo mein methodischer Schwerpunkt liegt und mit welchem Framework du komplexe IT-Lösungen sicher auf den dreckigen Boden der Tatsachen holst.

Die Philosophie: Warum KI-Wissen auf die Baustelle muss

Die meisten Digitalisierungsprojekte im Mittelstand scheitern nicht an der fehlenden Software, sondern an der fehlenden Brücke zwischen der digitalen Theorie und der physischen Realität. Auf der einen Seite haben wir hochkomplexe Cloud-Architekturen, auf der anderen Seite kaputte Maschinen, nasse Kabel und Mitarbeiter, die mit Excel-Listen auf dem Klemmbrett herumlaufen.

Mein Ansatz lautet daher: Build vs. Buy durch NoCode. Anstatt teure, starre Enterprise-Software zu kaufen, die am Ende doch nicht zum eigenen Prozess passt, setzen wir auf Low-Code- und NoCode-Plattformen. Diese Werkzeuge befähigen IT-Leiter, Projektmanager und technikaffine Handwerksmeister dazu, eigene Schnittstellen zu bauen. Das Ziel ist es, die Angst vor der Technologie zu nehmen und Werkzeuge wie Flowise, Airtable oder LangGraph so pragmatisch einzusetzen, wie einen guten Akkuschrauber.

Der methodische Schwerpunkt: RAG, Automatisierung und APIs

Wenn man meine Arbeiten und Tutorials analysiert, kristallisiert sich ein klares technologisches Dreieck heraus. Diese drei Säulen bilden das Fundament für nahezu jede praxistaugliche KI-Anwendung im Unternehmen.

RAG-Systeme (Retrieval-Augmented Generation) verstehen

Ein Sprachmodell (LLM) wie ChatGPT hat ein breites Allgemeinwissen, kennt aber deine internen Firmendokumente nicht. Trainierst du das Modell mit deinen Daten (Fine-Tuning), sind diese Informationen unwiderruflich im Modell gefangen.

Die Lösung, die ich intensiv behandle, ist RAG (Retrieval-Augmented Generation). Dabei wird eine Frage zuerst in einen mathematischen Vektor umgewandelt. Das System sucht in einer Vektordatenbank (z. B. ChromaDB) nach passenden Textschnipseln aus deinen Dokumenten. Anschließend übergibt es der KI die eigentliche Frage plus die gefundenen Fakten.

In der Praxis reicht einfaches RAG oft nicht aus, weil Nutzer ihre Fragen zu unpräzise formulieren. Hier setze ich auf erweiterte Methoden wie Reciprocal Rank Fusion (RRF) oder CRAG (Corrective RAG). Dabei generiert eine vorgeschaltete KI mehrere alternative Suchanfragen, um den Suchvektor in der Datenbank massiv zu vergrößern. Das kostet zwar in der Ausführung ein paar Sekunden mehr, erhöht die Trefferquote bei komplexen Fachfragen aber enorm.

Schnittstellen bauen: Make, Flowise und das CRM

KI entfaltet ihren echten Wert erst, wenn sie an die Systeme angebunden ist, in denen gearbeitet wird. Ein isolierter Chatbot ist nett, aber ein Bot, der direkt in Airtable Datensätze anlegt, Termine im Kalender verschiebt oder Servicefahrzeuge disponiert, verändert das Geschäft.

Mein Schwerpunkt liegt hier auf der Orchestrierung via Make (früher Integromat) und Flowise. Flowise ermöglicht es, LangChain-Logik per Drag-and-Drop aufzubauen. Wir bauen Custom Tools und binden externe APIs an. Ein klassisches Szenario aus meiner Praxis: Ein Webhook nimmt Daten aus einem WordPress-Kontaktformular entgegen, übergibt sie an eine KI zur Klassifizierung (z. B. "Ist das eine Beschwerde oder eine Neukundenanfrage?"), extrahiert die Kontaktdaten und speichert alles sauber strukturiert im CRM ab.

Datenschutz durch lokale LLMs (Ollama & AnythingLLM)

Wer sensible Baupläne, Kundendaten oder interne Finanzreports verarbeiten will, darf diese nicht an amerikanische Server schicken. Ein großer Teil meiner Arbeit konzentriert sich daher auf den datenschutzkonformen Einsatz von KI.

Die Lösung liegt im Betrieb lokaler Sprachmodelle. Tools wie Ollama in Kombination mit Schnittstellen wie AnythingLLM erlauben es, extrem leistungsfähige Open-Source-Modelle wie Mistral (aus Europa) oder Llama auf eigenen Servern (On-Premise) laufen zu lassen. In der Praxis hat sich gezeigt, dass diese lokalen Modelle für spezifische, eng abgesteckte Aufgaben (wie das Extrahieren von Adressdaten aus einem Text) großen Cloud-Modellen absolut das Wasser reichen können – bei vollständiger Datenhoheit.

4 Fallstricke bei der KI-Integration (Checkliste)

Klingt in der Theorie gut – in der Praxis stehen wir oft vor ganz anderen Herausforderungen. Wer anfängt, APIs und KI-Modelle zu verknüpfen, macht meistens die gleichen schmerzhaften Fehler. Worauf du unbedingt achten musst:

  1. Die Prompt-Falle beim Routing: Erwarte nicht, dass ein einziger Prompt einen kompletten Geschäftsprozess löst. Setze stattdessen auf Agentic Workflows (Multi-Agenten-Systeme). Lass eine KI die Daten extrahieren, eine zweite KI den Text schreiben und eine dritte KI das Ergebnis kontrollieren.
  2. Ignorierte API-Limits: Wenn du externe Schnittstellen (wie die Google Search API oder Datenbanken) anbindest, hast du Ratelimits. Wenn dein System in einer Endlosschleife bei jedem Fehler neu anfragt, wird es schnell teuer oder dein Account wird gesperrt. Baue in Make immer saubere Error-Handler und Fallbacks ein.
  3. Mangelhafte Datenqualität im Vektorraum: Wenn du Müll in deine Vektordatenbank wirfst, liefert das RAG-System Müll zurück (Garbage in, Garbage out). Bevor du PDFs in Embeddings verwandelst, müssen Tabellen, Fußzeilen und Bilder sauber bereinigt und geparst werden.
  4. Vergessenes Longterm Memory: Ein Standard-API-Call an ein Sprachmodell ist zustandslos (stateless). Die KI vergisst nach jedem Aufruf, wer du bist. Willst du einen echten Assistenten bauen, musst du eine Session-Verwaltung (z. B. via Upstash Redis) integrieren, die den Chatverlauf an eine feste Session-ID bindet und bei jedem Call mitliefert.

Ein typisches Praxisbeispiel: Der KI-Karriere-Bot

Wie diese Bausteine zusammenpassen, lässt sich hervorragend an einem Projekt zeigen, das ich für das Recruiting entwickelt habe: den Karriere-Bot.

Das Problem: Auf großen Karriereseiten mit hunderten Stellen an dutzenden Standorten finden sich Bewerber kaum zurecht. Klassische Filter sind oft starr und frustrierend.

Die Lösung: Ich habe einen GPT-Assistant in Flowise gebaut, der nicht einfach nur über das Unternehmen plaudert. Der Bot hat echten, lesenden Zugriff auf die Stellen-Datenbank (via API). Wenn ein Bewerber schreibt: "Ich suche was als Maler in der Nähe von Köln", passiert im Hintergrund Folgendes:

  1. Der Bot erkennt die Intention und extrahiert die Parameter (Beruf: Maler, Ort: Köln).
  2. Er triggert einen API-Aufruf an das Stellenportal und übergibt die Parameter.
  3. Das Portal meldet per JSON die verfügbaren Jobs zurück.
  4. Der Bot formuliert eine natürliche Antwort, fasst die Anforderungen zusammen und liefert direkt den konkreten Link zum Bewerbungsformular mit.

Die gesamte Orchestrierung funktioniert als NoCode-Anwendung und lässt sich nahtlos in einen WhatsApp-Flow integrieren.

Fazit: Was ich mit diesem Content erreichen will

Meine Tutorials und Artikel sind kein Selbstzweck für IT-Nerds. Mein Ziel ist es, das enorme Potenzial von Künstlicher Intelligenz aus den Forschungslaboren zu befreien und es genau dorthin zu bringen, wo Wertschöpfung passiert: in die Werkstätten, auf die Baustellen und in die Büros des Mittelstands.

Technologien wie RAG, LangChain oder Flowise wirken auf den ersten Blick einschüchternd. Aber wenn man sie auf ihre logischen Bausteine herunterbricht, sind es auch nur Werkzeuge. Du musst kein Python-Entwickler sein, um eine intelligente Datenbankabfrage für dein ERP-System zu bauen. Du musst nur die Logik dahinter verstehen und wissen, wie du die passenden NoCode-Tools miteinander verbindest.

Wer heute lernt, diese Systeme pragmatisch zu orchestrieren, baut sich nicht nur effizientere Prozesse – er schafft sich eine Unabhängigkeit von großen Software-Monolithen, die in der modernen Arbeitswelt entscheidend ist.

→ Vollständiges Projekt ansehen