KI-Agents & WebMCP: Ich habe meiner Website eine API gebaut

Stell dir vor, ein neuer Subunternehmer kommt auf deine Baustelle. Er hat keine Pläne, kein Briefing und niemanden, den er fragen kann. Was macht er? Er fängt an, Wände aufzustemmen, um zu erraten, wo die Stromkabel liegen. Völliger Wahnsinn, oder?

Aber ganz ehrlich: Exakt so behandeln wir gerade KI-Agents auf unseren Websites. Ein Agent besucht deine Seite und sieht nur digitalen Matsch. Einen endlosen Haufen aus HTML, verschachtelten Divs und kryptischen CSS-Klassen. Er muss raten, wo der Kontakt-Button ist, und hoffen, dass der Link "Projekte" wirklich zu echten Referenzen führt. Er scrapt, er parst, er interpretiert – und liegt am Ende trotzdem regelmäßig daneben.

Das war auch bei mir der Status quo. Aber als jemand, der seinen Kunden täglich erzählt, wie man Scheißprozesse abschafft, konnte ich mir dieses blinde KI-Stochern auf meiner eigenen Seite nicht länger ansehen.

KI-Agents und Websites: Warum HTML wie eine Baustelle ohne Plan ist

Ich beschäftige mich jeden Tag mit Automatisierung. Mein Job ist es, Prozesse schlauer zu machen – für Handwerksbetriebe, für den Mittelstand, für die Macher da draußen. Wir binden Maschinen per IoT an, wir digitalisieren Prüfberichte. Und trotzdem war meine eigene Website eine absolute Blackbox für genau die Tools, die ich selbst jeden Tag nutze.

Klar, ich hatte bereits eine llms.txt auf dem Server liegen. Das ist eine simple Textdatei, die KI-Modellen maschinenlesbare Infos über mich gibt. Quasi der ausgehängte Bauplan am Bauzaun. Gut gemeint, aber komplett passiv.

Was mir fehlte, war eine aktive Schnittstelle. Ein Weg für KI-Agents, nicht nur zu lesen, sondern zu handeln. Ein direkter Kanal, um Artikel zu durchsuchen, meine Terminal-Simulation zu starten oder Projektdetails abzurufen. Nicht durch unzuverlässiges Scraping, sondern durch ein sauberes, strukturiertes Fundament.

WebMCP in der Praxis: Der digitale Schlüssel für Maschinen

Die Lösung für dieses Problem heißt WebMCP (Web Model Context Protocol). Das ist ein Open-Source-Projekt, das genau diese Lücke schließt. Die Idee dahinter ist genial einfach: Jede Website kann sich als MCP-Server verhalten und den KI-Agents definierte "Tools" anbieten.

Anstatt dass ein Agent raten muss: "Ich sehe hier einen Button mit der Klasse sim-btn, vermutlich startet der irgendwas..." – sagt meine Website ihm jetzt proaktiv: "Pass auf, Kollege. Hier ist ein Tool namens run_simulator. Es akzeptiert einen Parameter scenario. Ruf das auf, und ich starte die Kiste für dich."

Das ist der Unterschied zwischen einem Touristen, der verzweifelt eine Karte im Regen studiert, und einem Einheimischen, der dich direkt ans Ziel fährt.

Setup-Falle CSP: Wenn der Server die Tür blockiert

Also ran ans Werk. Die Integration war erstaunlich hemdsärmelig. Ich habe die webmcp.js-Library eingebunden und in einer eigenen Datei definiert, was KI-Agents auf meiner Seite ab sofort tun dürfen. Am Ende standen 8 knackige Tools – von get_projects über search_sandbox bis hin zu run_simulator.

Aber wer mich kennt, weiß: Keine Automatisierung im Handwerk läuft beim ersten Mal reibungslos durch. Meine Sackgasse dieses Mal? Die Content Security Policy (CSP).

Ich hatte alles sauber programmiert, den lokalen MCP-Server gestartet – und nichts passierte. Mein Nginx-Server hat dem Agent knallhart die Tür vor der Nase zugeschlagen. Warum? Weil WebMCP über WebSockets kommuniziert. Wer Verbindungen über ws://localhost:* aufbauen will, muss seinem Server-Türsteher explizit sagen, dass das in Ordnung geht. Eine kleine Zeile in der Server-Config, und plötzlich machte es Klick.

WebMCP-Setup: Was ich dabei gelernt habe

Falls du deine eigene Website für KI-Agents öffnen willst, hier die ultimativen Learnings aus meiner Werkstatt:

Das Agentic Web: Warum das keine Techie-Spielerei bleibt

Der magische Moment kam direkt danach. Ich habe Claude Desktop geöffnet, die Verbindung bestätigt und gesagt: "Zeig mir alle Artikel über KI von Bastians Seite." Keine zwei Sekunden später hatte ich eine perfekt strukturierte JSON-Antwort mit Titel, Slug, Excerpt und Tags auf dem Schirm. Direkt aus meinem CMS gezogen. Kein Raten, kein Parsing-Bullshit.

Man kann das jetzt als nerdige Spielerei abtun. "Wer verbindet schon seine KI mit einer Website, Bastian?" Heute vielleicht noch wenige. Aber denk mal ein, zwei Jahre weiter: Google Chrome testet bereits nativen Support für MCP. Die Art, wie wir das Internet nutzen, ändert sich radikal. Agents werden Websites nicht mehr visuell lesen, sie werden über diese strukturierten APIs kommunizieren. Das spart Token, ist rasend schnell und fehlerfrei.

Wir bewegen uns auf das Agentic Web zu. Websites werden zu API-Endpunkten. Wer heute damit anfängt, den Dachstuhl seiner Seite für KI umzubauen, hat morgen den entscheidenden Vorsprung, wenn die Konkurrenz noch versucht, ihr kaputtes HTML-Gerüst mit Panzertape zu flicken.

Für mich war das ein Pflichtprogramm. Wenn ich in meinen Live-Demos und Keynotes über echte Automatisierung spreche, muss meine eigene digitale Haustür das auch widerspiegeln.

Wenn du vor einer ähnlichen Herausforderung stehst – sei es auf der eigenen Website oder bei der Anbindung eurer Maschinen im Betrieb – fang einfach an. Der Code ist kein Hexenwerk. Man muss es einfach mal machen.

→ Vollständigen Artikel lesen