Sichere AI-Agents entwickeln mit Docker und MCP
Die AI-Entwicklung durchläuft derzeit eine massive Transformation. Lange Zeit waren wir beeindruckt, wenn ein LLM (Large Language Model) wie Claude oder GPT einen guten Text schrieb. Doch heute reicht das nicht mehr. Wir wollen keine Chatbots, die nur reden – wir wollen AI-Agents, die handeln.
Wir wollen KIs, die Datenbanken abfragen, Code ausführen oder APIs steuern. Doch sobald wir einer KI Zugriff auf unsere lokalen Systeme geben, entsteht ein massives Sicherheitsproblem. Niemand möchte einem experimentellen Agenten root-Zugriff auf seinen Entwickler-Laptop geben. In diesem Beitrag zeige ich dir, wie du zwei Technologien kombinierst, um dieses Problem elegant zu lösen: Docker und das Model Context Protocol (MCP). Wir bauen eine Architektur, die das AI-Programmieren sicher, portabel und skalierbar macht.
Das Problem: Die Intelligenz-Insel
Bisher waren LLMs isoliert. Um sie mit deinen Daten zu verbinden, musstest du komplexe, fragile „Kleber-Skripte“ schreiben. Jede Integration war anders. Hier kommt das Model Context Protocol (MCP) ins Spiel. MCP ist ein neuer offener Standard, der es KI-Assistenten ermöglicht, sich universell mit Systemen zu verbinden. Stell es dir wie einen USB-C-Anschluss für KI-Modelle vor. Egal ob PostgreSQL, Google Drive oder dein lokales Dateisystem – MCP bietet eine einheitliche Sprache.
Doch ein Problem bleibt: Sicherheit. Wenn dein MCP-Server direkten Zugriff auf deinen PC hat, ist das riskant. Ein Fehler im Prompt oder im Modell könnte ungewollte Änderungen an deinem Dateisystem vornehmen.
Die Lösung: Docker als Sicherheits-Sandbox
Genau hier wird Docker zum besten Freund der AI-Entwicklung. Indem wir unsere MCP-Server in Docker-Container verpacken, erreichen wir drei entscheidende Dinge. Erstens die Isolation: Der AI-Agent sieht nur das, was im Container ist. Er kann nicht versehentlich dein Betriebssystem löschen. Zweitens die Konsistenz der Umgebung: „It works on my machine“ ist Geschichte. Der Agent läuft überall gleich, egal ob Windows, Mac oder Linux. Drittens das einfache Deployment: Du kannst fertige Tools als Image an dein Team verteilen.
Tutorial: Wir bauen ein Dockerisiertes AI-Tool
Lass uns die Theorie in die Praxis umsetzen. In diesem Szenario bauen wir einen AI-Agent, der in einer sicheren Umgebung (Docker) Systemoperationen durchführen kann. Wir bauen einen MCP-Server, der in einem Docker-Container läuft und verbinden diesen mit der Claude Desktop App. Alles, was du als Voraussetzung brauchst, ist Docker Desktop und grundlegende Python-Kenntnisse.
Den MCP-Server schreiben
Erstelle einen neuen Ordner für dein Projekt und darin eine Datei server.py. Wir nutzen das offizielle Python SDK für MCP, um einen Server zu definieren, der einfache Aufgaben erledigen kann.
# server.py
from mcp.server.fastmcp import FastMCP
# Wir nennen unseren Server "Secure-Agent"
mcp = FastMCP("Secure-Agent")
@mcp.tool()
def berechne_daten(x: int, y: int) -> int:
"""Ein einfaches Tool zur Berechnung, um die Funktion zu testen."""
return x * y
@mcp.tool()
def lese_geheime_datei() -> str:
"""Simuliert das Lesen einer sensiblen Datei innerhalb des Containers."""
try:
with open("/app/geheim.txt", "r") as f:
return f.read()
except FileNotFoundError:
return "Datei nicht gefunden."
if __name__ == "__main__":
# Der Server lauscht auf Standard-Input/Output (stdio)
mcp.run()
Dieses Skript definiert Tools, die der AI zur Verfügung stehen. Die AI „sieht“ diese Funktionen und kann entscheiden, sie aufzurufen.
Das Dockerfile erstellen
Damit das AI-Programmieren sauber bleibt, definieren wir die Umgebung exakt. Erstelle eine Datei namens Dockerfile (ohne Dateiendung) im selben Ordner:
# Wir nutzen ein schlankes Python Image
FROM python:3.11-slim
WORKDIR /app
# Installation der MCP Bibliothek
RUN pip install "mcp[cli]"
# Kopieren des Server-Codes
COPY server.py .
# Erstellen einer Dummy-Datei zum Testen der Sandbox
RUN echo "Dies ist eine geheime Info, die nur der Container kennt!" > geheim.txt
# WICHTIG: Entrypoint für stdio Kommunikation
ENTRYPOINT ["python", "server.py"]
Öffne nun dein Terminal, navigiere in den Ordner und baue das Image mit dem Befehl docker build -t mein-mcp-agent .. Docker erstellt nun ein gekapseltes Abbild deines Tools.
Die Verbindung herstellen
Jetzt müssen wir der Claude Desktop App (oder jedem anderen MCP-Client) sagen, wie sie diesen Docker-Container nutzen soll. Suche die Konfigurationsdatei claude_desktop_config.json auf deinem System und füge folgenden Eintrag unter mcpServers hinzu:
{
"mcpServers": {
"docker-agent": {
"command": "docker",
"args": [
"run",
"-i",
"--rm",
"mein-mcp-agent"
]
}
}
}
Das Flag -i (interactive) ist hier entscheidend. MCP kommuniziert über stdio (Standard Input/Output). Claude sendet eine Anfrage an den Docker-Befehl, Docker leitet dies durch die „Pipe“ in den Container an das Python-Skript weiter, und die Antwort fließt denselben Weg zurück. Alles passiert isoliert. Wenn Claude versucht, kritische Befehle auszuführen, betrifft das maximal den Container, aber dein Host-System bleibt unberührt.
Warum das die Zukunft der AI Entwicklung ist
Wer sich ernsthaft mit AI-Agents beschäftigt, wird feststellen, dass wir weg von „Chat“ und hin zu „Integration“ müssen. In Firmenumgebungen ist Compliance alles. Du kannst Docker-Container so konfigurieren, dass sie keinen Internetzugriff haben oder nur lesend auf Datenbanken zugreifen dürfen. Das macht den Einsatz von GenAI in Enterprise-Umgebungen erst möglich.
Zudem vereinfacht es komplexes Tooling. Stell dir vor, du willst einen Agenten bauen, der Videos verarbeitet. Dafür brauchst du ffmpeg, spezielle Python-Libs und Systemtreiber. Anstatt deinen PC damit zu belasten, packst du alles in einen Docker-Container. Der MCP-Server exponiert nur eine Funktion wie video_kürzen, und die AI nutzt das Tool, ohne sich um die komplexe Installation im Hintergrund zu kümmern.
Fazit
Die Kombination aus Docker und MCP ist der Goldstandard für modernes AI-Programmieren. Sie erlaubt es Entwicklern, mächtige Werkzeuge zu bauen, ohne Kompromisse bei der Sicherheit einzugehen. Wir bewegen uns weg von monolithischen KI-Modellen hin zu einer modularen Welt, in der spezialisierte Container spezifische Aufgaben übernehmen – orchestriert durch die Intelligenz eines LLMs. Wenn du deine Infrastruktur AI-ready machen willst, ist jetzt der beste Zeitpunkt, deinen ersten Dockerized MCP Server zu starten.