KI-Prozessautomatisierung × Infrastruktur

KI-gestützte Geschäftsprozesse — auf einer Infrastruktur, die Sie kontrollieren.

Cloud, on-prem oder hybrid. Wir bauen die Automatisierung — und das Fundament, auf dem sie verlässlich läuft.

Vier Säulen, eine Verantwortung.

AI-Apps scheitern selten am Modell. Sie scheitern an Daten, Deployment und Betrieb. Wir liefern beides aus einer Hand.

01 / KI

KI-Prozessautomatisierung

Agenten, RAG-Pipelines und LLM-Integrationen für reale Geschäftsprozesse — von Dokumenten-Workflows bis zu strukturierter Sachbearbeitung.

02 / Cloud

Cloud-Architektur

AWS, Hetzner, Hybrid: Landing Zones, IaC, Sicherheits-Baselines, FinOps. Damit Skalierung kein Brandbeschleuniger wird.

03 / On-Prem

On-Prem-Stack

Kubernetes (k3s), Vault, lokale LLM-Inferenz mit Ollama. Wenn Daten den Standort nicht verlassen dürfen, betreiben wir sie dort, wo sie liegen.

04 / Betrieb

Migration & Betrieb

GitOps, Observability, On-Call-Runbooks. Wir übergeben nicht nur einen Stack — wir hinterlassen ein Team, das ihn bedienen kann.

Differenzierung

AI ohne Infrastruktur ist eine Demo. Infrastruktur ohne AI ist Verwaltung.

Die meisten KI-Initiativen liefern beeindruckende Prototypen — und scheitern beim Übergang in den Produktivbetrieb. Modelle laufen, aber niemand weiß, wer sie deployt, monitort, versioniert oder gegen Datenschutz absichert.

Wir verbinden beides: Wir bauen den AI-Workflow und gleichzeitig die Pipeline, in der er reproduzierbar läuft. Cloud, wenn es Sinn ergibt. On-prem, wenn es muss. Hybrid, wenn die Realität dazwischen liegt.

Ein Modell ist erst dann produktiv, wenn jemand um drei Uhr nachts ohne Anruf weiß, was zu tun ist.

Drei Phasen — kein Wasserfall.

Wir starten klein, beweisen Wert in Wochen statt Monaten und skalieren nur, was sich bewährt hat.

  1. 01

    Discovery

    Prozesse aufnehmen, ROI-Kandidaten identifizieren, Infra-Reifegrad bewerten. Ergebnis: priorisierte Roadmap mit klaren Hypothesen.

    1–2 Wochen
  2. 02

    Pilot

    Einen Use Case End-to-End: Datenintegration, Modell, Deployment, Monitoring. Auf Ihrer Infrastruktur, mit Ihrem Team.

    4–6 Wochen
  3. 03

    Skalierung

    Mehr Use Cases, mehr Automatisierung, weniger manuelle Übergaben. Plus Knowledge Transfer, damit Sie selbst weiterbauen können.

    fortlaufend

Technologien, die wir produktiv betreiben.

Keine Buzzwords, sondern Werkzeuge im täglichen Einsatz.

KubernetesArgoCDTerraformOllamaLangChainPostgreSQLAWSHetznerVaultPrometheusGrafanaGitHub Actions

Was wir gebaut haben.

Auswahl aktueller Projekte. Details auf Anfrage.

Spielzeug & Medien

Audio-Transkription mit Speaker-Diarization für Content-Pipelines

Kubernetes-basierter Service zur automatischen Transkription mehrsprachiger Audio-Dateien — inklusive Sprecher-Erkennung, On-Prem-Inferenz und Kosten-Monitoring.

→ 5× schnellere Verarbeitung
Bauwesen

Cloud-Migration mit Terraform-IaC und sicherheitskonformem Tagging

Komplette AWS-Landung-Zone mit Security-Baseline, Cost-Allocation, GitOps-Deployments und Service-Konnektivität zwischen Legacy- und Cloud-Workloads.

→ 100 % IaC-Coverage
Mittelstand / Beratung

AI-Plattform mit lokaler LLM-Inferenz und WireGuard-Tunnel

k3s-Cluster auf Hetzner, gekoppelt mit Mac-Studio-Ollama für Metal-GPU-Inferenz. ArgoCD-GitOps, Langfuse-Observability, vollautomatisierte Deployments.

→ <€30/Monat Infra

Bauen wir etwas Sinnvolles.

30 Minuten, kein Verkaufsgespräch. Wir hören uns an, womit Sie kämpfen, und sagen ehrlich, ob wir helfen können.