Leitprinzipien
Open Source
Keine Vendor-Abhängigkeit. Der Code gehört Ihnen.
Lokal deploybar
Daten verlassen Ihr Unternehmen nicht.
Deterministisch
Reproduzierbare Ergebnisse bei gleichen Eingaben.
CO₂-optimiert
Klassische Algos wo möglich, KI nur wo nötig.
Stack nach Stufe
Neo4j Community Edition[1]
Graph-Datenbank (Open Source)
Speichert Daten und ihre Beziehungen als Graph. Ideal für Requirements Traceability, Impact-Analysen und vernetzte Daten.
- Native Graph-Speicherung mit Cypher Query Language
- ACID-transaktional, horizontal skalierbar
- Community Edition vollständig kostenlos
Use Case: „Welche Requirements sind von Änderung X betroffen?" – Graph-Traversierung in Millisekunden.
PuppyGraph[2]
Graph Query Layer (Alternative)
Läuft direkt auf bestehenden Datenquellen (Parquet, Delta Lake, PostgreSQL). Keine Datenmigration nötig.
- Zero-ETL Graph Analytics
- Sub-second Queries auf großen Datenmengen
- Ideal für bestehende Data Lakes
Use Case: Graph-Queries auf Data Lake ohne Daten zu kopieren – ideal bei bestehender Snowflake/Databricks-Infrastruktur.
SHACL (Shapes Constraint Language)[3][4]
Validierung (W3C Standard)
Definiert Geschäftsregeln als ausführbare Constraints. 100% deterministisch – keine Black Box, keine Überraschungen.
- W3C-Standard für RDF-Validierung
- Deklarative Regelsprache, vollständig nachvollziehbar
- Integration in CI/CD möglich
Use Case: „Jedes Requirement muss einen Verantwortlichen haben" – Validierung läuft automatisch bei jedem Commit.
Datalog in Neo4j[1]
Regelbasierte Inferenz
Prolog-ähnliche Regeln direkt in der Graph-Datenbank. 90% des Wertes ohne KI – rein deterministisch.
- Rekursive Abfragen für Pfadanalysen
- Compliance-Checks (A-SPICE, ISO 26262, MDR)
- Automatische Impact-Propagation
Use Case: „Finde alle transitiven Abhängigkeiten von Komponente X" – rekursive Traversierung mit vollständiger Traceability.
I-Score / K-Score[5]
Knowledge Graph Metriken (AAAI 2023)
Informationstheoretische Messung der KG-Qualität. Objektive Scores statt Bauchgefühl.
- I-Score: Informationsgehalt pro Knoten – wie viel Wissen steckt drin?
- K-Score: Konnektivität und Vollständigkeit – wie gut vernetzt?
- Trend-Tracking über Zeit für kontinuierliche Verbesserung
Use Case: „Unser Requirements-Graph hat I-Score 0.73 – letzten Monat 0.68" – objektive Fortschrittsmessung für Management-Reports.
TigerGraph Vector-Scoring[6]
Hybrides Graph + Vector
Vektoren als Attribute auf Graph-Knoten. Kombiniert semantische Ähnlichkeit mit struktureller Analyse.
- Vektoren direkt im Graph gespeichert – keine separate Vector DB nötig
- Hybride Queries: Graph-Traversierung + Vektor-Suche in einer Anfrage
- Architektur-Scoring, Risiko-Bewertung, Ähnlichkeitssuche
Use Case: „Finde ähnliche Requirements (semantisch) die auch im selben Modul liegen (strukturell)" – Hybrid-Queries in Millisekunden.
TigerGraph GNNs[6]
Graph Neural Networks
Prädiktive Analytics auf Graph-Strukturen. Lieferengpässe, Risiko-Prognosen, Anomalie-Erkennung.
- Native GNN-Integration in Graph-DB – kein separates ML-Framework nötig
- Sub-second Queries auf großen Graphen (Millionen Knoten)
- Time-Series + Graph kombiniert für prädiktive Insights
Use Case: „Warnung: Lieferant X hat 73% Ausfallrisiko in 4 Wochen" – GNN analysiert historische Muster + aktuelle Graph-Struktur.
PowerDrill Agents[7]
Self-Improving durch RLHF
Agenten, die aus Nutzer-Feedback lernen. Autonome Experimente für kontinuierliche Verbesserung.
- RLHF (Reinforcement Learning from Human Feedback)
- Autonome Hypothesen-Tests – Agent probiert Optimierungen selbst
- Evaluation Suites für Qualitätssicherung bei jedem Update
Use Case: „Agent hat selbstständig 15% bessere Klassifikation erreicht" – durch autonomes Experimentieren mit Nutzer-Feedback.
LLM-Integration (wo nötig)
Ollama[8]
Lokale LLMs (Open Source)
Wenn KI benötigt wird: Lokale Modelle wie Llama 3.1 8B oder Mistral 7B. Keine API-Kosten, Daten bleiben im Haus.
- Llama 3.1, Mistral, Code Llama – aktuelle Open-Source-Modelle
- Läuft auf Consumer-Hardware (M1/M2/M3 Mac, RTX 3060+)
- Keine Internetverbindung nötig – 100% Air-Gapped möglich
Use Case: Entwickler fragen Requirements in natürlicher Sprache ab – LLM läuft lokal, Daten verlassen nie das Firmennetz.
MCP Server[9]
Model Context Protocol (Anthropic)
Standardisiertes Protokoll für strukturierte KI-Interaktion. Verbindet LLMs mit Unternehmensdaten über definierte Schnittstellen.
- Tool-Integration: Graph-Abfragen, Validierung, Code-Ausführung
- Kontextmanagement und Guardrails gegen Halluzinationen
- Erweiterbar durch Plugins – eigene Tools einfach integrieren
Use Case: LLM erhält strukturierten Zugriff auf Neo4j-Graph – keine direkten Datenbankzugriffe, nur über definierte Tools.
Kostenvergleich: Cloud vs. Lokal
| Cloud API (pro Jahr) | Lokal (einmalig) | |
|---|---|---|
| Jahr 1 | €1.800 - 18.000 | €2.000 - 5.000 |
| Jahr 2+ | €1.800 - 18.000 | ~€500 (Wartung) |
| 3-Jahres-TCO | €5.400 - 54.000 | €3.000 - 6.000 |
Break-even: Typischerweise nach 6-12 Monaten. Bei hohem Anfragevolumen noch schneller.
Warum nicht Cloud?
Cloud-Dienste haben ihre Berechtigung, aber für kritische Unternehmensprozesse gibt es Nachteile:
- Laufende Kosten: API-Gebühren skalieren mit der Nutzung
- Datenschutz: Daten verlassen das Unternehmen
- Abhängigkeit: Preiserhöhungen und API-Änderungen außer Kontrolle
- Verfügbarkeit: Abhängigkeit von Internetverbindung und Provider-Uptime
Technische Fragen?
Lassen Sie uns über die Anforderungen an Ihre IT-Architektur sprechen.
Gespräch vereinbarenQuellen
- Neo4j Graph Database Documentation
- PuppyGraph: Graph Database Tools 2025
- SHACL: W3C Shapes Constraint Language
- SCOOP: Constraints Flavours for Knowledge Graphs (ESWC 2024)
- I-Score/K-Score: Measurement of Knowledge in KGs (AAAI 2023)
- TigerGraph: Graph Databases for AI
- PowerDrill Self-Improving Agents
- Ollama: Run LLMs locally
- Model Context Protocol (MCP) - Anthropic