← Mein Ansatz

Technischer Stack

Für CTOs und IT-Entscheider: Wie der Ansatz technisch umgesetzt wird

Leitprinzipien

Open Source

Keine Vendor-Abhängigkeit. Der Code gehört Ihnen.

Lokal deploybar

Daten verlassen Ihr Unternehmen nicht.

Deterministisch

Reproduzierbare Ergebnisse bei gleichen Eingaben.

CO₂-optimiert

Klassische Algos wo möglich, KI nur wo nötig.

Stack nach Stufe

Stufe 3: Ontologie + Graph

Neo4j Community Edition[1]

Graph-Datenbank (Open Source)

Speichert Daten und ihre Beziehungen als Graph. Ideal für Requirements Traceability, Impact-Analysen und vernetzte Daten.

  • Native Graph-Speicherung mit Cypher Query Language
  • ACID-transaktional, horizontal skalierbar
  • Community Edition vollständig kostenlos

Use Case: „Welche Requirements sind von Änderung X betroffen?" – Graph-Traversierung in Millisekunden.

PuppyGraph[2]

Graph Query Layer (Alternative)

Läuft direkt auf bestehenden Datenquellen (Parquet, Delta Lake, PostgreSQL). Keine Datenmigration nötig.

  • Zero-ETL Graph Analytics
  • Sub-second Queries auf großen Datenmengen
  • Ideal für bestehende Data Lakes

Use Case: Graph-Queries auf Data Lake ohne Daten zu kopieren – ideal bei bestehender Snowflake/Databricks-Infrastruktur.

Stufe 4: Logische Regeln

SHACL (Shapes Constraint Language)[3][4]

Validierung (W3C Standard)

Definiert Geschäftsregeln als ausführbare Constraints. 100% deterministisch – keine Black Box, keine Überraschungen.

  • W3C-Standard für RDF-Validierung
  • Deklarative Regelsprache, vollständig nachvollziehbar
  • Integration in CI/CD möglich

Use Case: „Jedes Requirement muss einen Verantwortlichen haben" – Validierung läuft automatisch bei jedem Commit.

Datalog in Neo4j[1]

Regelbasierte Inferenz

Prolog-ähnliche Regeln direkt in der Graph-Datenbank. 90% des Wertes ohne KI – rein deterministisch.

  • Rekursive Abfragen für Pfadanalysen
  • Compliance-Checks (A-SPICE, ISO 26262, MDR)
  • Automatische Impact-Propagation

Use Case: „Finde alle transitiven Abhängigkeiten von Komponente X" – rekursive Traversierung mit vollständiger Traceability.

Stufe 5: Quantifizierbare Scores ★

I-Score / K-Score[5]

Knowledge Graph Metriken (AAAI 2023)

Informationstheoretische Messung der KG-Qualität. Objektive Scores statt Bauchgefühl.

  • I-Score: Informationsgehalt pro Knoten – wie viel Wissen steckt drin?
  • K-Score: Konnektivität und Vollständigkeit – wie gut vernetzt?
  • Trend-Tracking über Zeit für kontinuierliche Verbesserung

Use Case: „Unser Requirements-Graph hat I-Score 0.73 – letzten Monat 0.68" – objektive Fortschrittsmessung für Management-Reports.

TigerGraph Vector-Scoring[6]

Hybrides Graph + Vector

Vektoren als Attribute auf Graph-Knoten. Kombiniert semantische Ähnlichkeit mit struktureller Analyse.

  • Vektoren direkt im Graph gespeichert – keine separate Vector DB nötig
  • Hybride Queries: Graph-Traversierung + Vektor-Suche in einer Anfrage
  • Architektur-Scoring, Risiko-Bewertung, Ähnlichkeitssuche

Use Case: „Finde ähnliche Requirements (semantisch) die auch im selben Modul liegen (strukturell)" – Hybrid-Queries in Millisekunden.

Stufe 6-7: Prediction & Feedback

TigerGraph GNNs[6]

Graph Neural Networks

Prädiktive Analytics auf Graph-Strukturen. Lieferengpässe, Risiko-Prognosen, Anomalie-Erkennung.

  • Native GNN-Integration in Graph-DB – kein separates ML-Framework nötig
  • Sub-second Queries auf großen Graphen (Millionen Knoten)
  • Time-Series + Graph kombiniert für prädiktive Insights

Use Case: „Warnung: Lieferant X hat 73% Ausfallrisiko in 4 Wochen" – GNN analysiert historische Muster + aktuelle Graph-Struktur.

PowerDrill Agents[7]

Self-Improving durch RLHF

Agenten, die aus Nutzer-Feedback lernen. Autonome Experimente für kontinuierliche Verbesserung.

  • RLHF (Reinforcement Learning from Human Feedback)
  • Autonome Hypothesen-Tests – Agent probiert Optimierungen selbst
  • Evaluation Suites für Qualitätssicherung bei jedem Update

Use Case: „Agent hat selbstständig 15% bessere Klassifikation erreicht" – durch autonomes Experimentieren mit Nutzer-Feedback.

LLM-Integration (wo nötig)

Ollama[8]

Lokale LLMs (Open Source)

Wenn KI benötigt wird: Lokale Modelle wie Llama 3.1 8B oder Mistral 7B. Keine API-Kosten, Daten bleiben im Haus.

  • Llama 3.1, Mistral, Code Llama – aktuelle Open-Source-Modelle
  • Läuft auf Consumer-Hardware (M1/M2/M3 Mac, RTX 3060+)
  • Keine Internetverbindung nötig – 100% Air-Gapped möglich

Use Case: Entwickler fragen Requirements in natürlicher Sprache ab – LLM läuft lokal, Daten verlassen nie das Firmennetz.

MCP Server[9]

Model Context Protocol (Anthropic)

Standardisiertes Protokoll für strukturierte KI-Interaktion. Verbindet LLMs mit Unternehmensdaten über definierte Schnittstellen.

  • Tool-Integration: Graph-Abfragen, Validierung, Code-Ausführung
  • Kontextmanagement und Guardrails gegen Halluzinationen
  • Erweiterbar durch Plugins – eigene Tools einfach integrieren

Use Case: LLM erhält strukturierten Zugriff auf Neo4j-Graph – keine direkten Datenbankzugriffe, nur über definierte Tools.

Kostenvergleich: Cloud vs. Lokal

Cloud API (pro Jahr) Lokal (einmalig)
Jahr 1 €1.800 - 18.000 €2.000 - 5.000
Jahr 2+ €1.800 - 18.000 ~€500 (Wartung)
3-Jahres-TCO €5.400 - 54.000 €3.000 - 6.000

Break-even: Typischerweise nach 6-12 Monaten. Bei hohem Anfragevolumen noch schneller.

Warum nicht Cloud?

Cloud-Dienste haben ihre Berechtigung, aber für kritische Unternehmensprozesse gibt es Nachteile:

  • Laufende Kosten: API-Gebühren skalieren mit der Nutzung
  • Datenschutz: Daten verlassen das Unternehmen
  • Abhängigkeit: Preiserhöhungen und API-Änderungen außer Kontrolle
  • Verfügbarkeit: Abhängigkeit von Internetverbindung und Provider-Uptime

Technische Fragen?

Lassen Sie uns über die Anforderungen an Ihre IT-Architektur sprechen.

Gespräch vereinbaren

Quellen

  1. Neo4j Graph Database Documentation
  2. PuppyGraph: Graph Database Tools 2025
  3. SHACL: W3C Shapes Constraint Language
  4. SCOOP: Constraints Flavours for Knowledge Graphs (ESWC 2024)
  5. I-Score/K-Score: Measurement of Knowledge in KGs (AAAI 2023)
  6. TigerGraph: Graph Databases for AI
  7. PowerDrill Self-Improving Agents
  8. Ollama: Run LLMs locally
  9. Model Context Protocol (MCP) - Anthropic