Pragmatische KI-Produkte statt PowerPoint-Versprechen.
True Frame Labs entwickelt AI- und Softwarelösungen von der Idee bis zum Betrieb. Fokus auf messbaren Nutzen, nicht auf Hype. Kleine spezialisierte Taskforce aus Berlin mit hoher Umsetzungsgeschwindigkeit und tiefer technischer Expertise.
Expertise aus der Zusammenarbeit mit
Leistungen
End-to-End-Entwicklung von KI- und Data-Produkten – von der strategischen Planung bis zum produktiven Betrieb.
Solide Datenfundamente für bessere Entscheidungen und automatisierte Prozesse.
- Data Pipelines & ETL-Prozesse
- Data Warehouses & Analytics-Infrastruktur
- Business Intelligence & Dashboards
- Datenqualität & Governance
Intelligente Systeme, die Wissen verstehen und Aufgaben eigenständig erledigen.
- RAG-Systeme & Domänen-Wissensbanken
- AI-Agenten für komplexe Workflows
- Chatbots & Conversational AI
- Dokumentenverarbeitung & -analyse
Von Backend-APIs bis zu benutzerfreundlichen Frontends – alles aus einer Hand.
- Backend-Entwicklung & API-Design
- Frontend & Web-Anwendungen
- System-Integrationen & Schnittstellen
- Cloud-Architekturen auf AWS
Funktionale MVPs in 2–4 Wochen – von der Idee zum testbaren Produkt.
- Rapid Prototyping für neue AI-Produkte
- Technische Machbarkeitsprüfungen
- Architektur-Beratung & Tech-Stack
- Proof of Concepts & Pilotprojekte
Projekt-Beispiele
Ausgewählte Szenarien aus verschiedenen Branchen
Ausgangssituation
Lieferantenwissen war verteilt (Dokumente, interne Systeme, externe Quellen). Analysen waren manuell, inkonsistent und schwer auditierbar.
Lösung
Multi-tenant Plattform mit hierarchischem Supplier Enrichment, RAG-Workflows (LangGraph + Vektor-Suche), evidence-linked Antworten, Tracing/Qualitätskontrolle und RBAC. API-basierte Synchronisation statt fragilem Scraping; automatisierte Initiativen über große Transaktionsmengen.
Ergebnisse
- Strukturierte Insights mit Quellenbelegen über 12k Lieferanten und 100+ Dokumente
- Automatisierte Opportunity-Erkennung aus ~1.5M Transaktionen (klarer Business-Hebel)
- Kosten-/Usage-Guardrails für planbaren LLM-Betrieb
Ausgangssituation
ESG-relevante Daten mussten aus heterogenen Dokumenten manuell extrahiert werden – langsam und fehleranfällig.
Lösung
Full-stack Extraktionspipeline (Next.js + Backend-Services) mit LLM-gestützter Extraktion, validierten Outputs und automatisierten Verarbeitungsschritten für verschiedene Formate.
Ergebnisse
- Reduktion manueller Bearbeitungszeit von ~40 Stunden auf ~15 Minuten
- Reproduzierbare Outputs durch Schema-/Validierungslogik
- Schnellere Weiterverarbeitung in internen Workflows
Ausgangssituation
Wissenssuche in vielen Dokumenten war langsam; Antworten waren zu oberflächlich, Quellen schwer nachzuvollziehen.
Lösung
AWS-native Plattform (IaC, API Gateway, S3, OpenSearch, Bedrock) mit semantic chunking/embedding, Suche + UI-Integration und klarer Retrieval-Strategie.
Ergebnisse
- Deutlich schnellere Dokumentensuche für 200+ Nutzer:innen
- Höhere Antwortqualität durch verbessertes Chunking/Retrieval
- Saubere Betriebsbasis (Infra-as-Code, Monitoring, klare Deployments)
Ausgangssituation
Telefonprozesse blockierten Teams; Informationen gingen verloren; Nachbearbeitung war unstrukturiert.
Lösung
Real-time Voice Backend (FastAPI) mit WebRTC Audio, VAD/Streaming, LLM-Orchestrierung, strukturierter Datenerfassung und automatisierten Aktionen (z. B. E-Mail/Termin).
Ergebnisse
- Automatisierte Erfassung + Weiterleitung von Gesprächsergebnissen
- Weniger manuelle Nacharbeit, konsistente Datensätze
- Produktionsfähige Architektur für mehrere Deployments
Ausgangssituation
Slide-Erstellung war langsam und inkonsistent; Qualität schwankte stark.
Lösung
Service-basierte Generierung (FastAPI) mit JSON-Schema-Outputs, synthetischen Daten für Robustheit und automatisierter Evaluation.
Ergebnisse
- Stabilere, 'slide-ready' Outputs durch Guardrails
- Messbarer Uplift in Produktnutzung/Engagement (qualitätsgetrieben)
Arbeitsweise
Transparenz, kleine Feedback-Schleifen und direkte Kommunikation mit den Entwickler:innen – ohne überflüssige Layer.
Verstehen & Schärfen
Problemdefinition, Zielbild und technische Rahmenbedingungen klären. Keine langen Workshops, sondern fokussierte Sessions mit den richtigen Stakeholdern.
Entwerfen & Validieren
Architektur-Design und schnelle Proof of Concepts. Frühes Feedback durch funktionale Prototypen statt endloser Spezifikationen.
Bauen & Integrieren
Iterative Implementierung mit kontinuierlicher Integration. Tests und Qualitätssicherung von Anfang an, nicht als Nachgedanke.
Betreiben & Weiterentwickeln
Deployment, Monitoring und Erfolgsmessung. Iterative Verbesserungen basierend auf echten Nutzungsdaten und Feedback.
Beruflicher Werdegang
Vom Engineering-Studium über Data Science zu AI/ML Engineering – kontinuierliche Entwicklung mit Fokus auf produktionsreife Lösungen


Freelance AI Architect & Founder
True Frame Labs
Multi-Client AI-Systeme mit LLMs, RAG und Vektor-Suche aufgebaut und skaliert; Token-Kosten um bis zu 90% durch optimierte Inferenz-Pipelines reduziert. End-to-End Full-Stack AI-Produkte mit rollenbasierter Authentifizierung, Echtzeit-Dashboards und automatisiertem CI/CD-Deployment geliefert.


Senior Machine Learning Engineer
Public Cloud Group
Design einer Knowledge-Retrieval-Plattform auf AWS Bedrock & OpenSearch für Enterprise-Kunden geleitet. KI-gestützte Resume-Keyword-Extraction-Bibliothek und Dokumentenklassifizierungs-Pipeline entwickelt, die Verarbeitungszeit von 40h auf 15 Min. reduzierte.


Chief AI Officer
Zapdeck GmbH
KI-Strategie des Unternehmens entwickelt und umgesetzt; Präsentationsgenerierungs-LLM-System auf Heroku aufgebaut. Modelle mit synthetischen Daten fine-tuned für verbesserte Zuverlässigkeit und Output-Qualität.


Data & Software Engineer
AllCloud GmbH
Vollständige AWS-basierte Datenplattform (API Gateway, Glue, Redshift, Step Functions) geliefert. Echtzeit-Übersetzungsdienste und KI-gestützte Lokalisierungs-Pipeline mit SageMaker A2I erstellt, Übersetzungs-Review-Workflows automatisiert.


Machine Learning Consultant
Deloitte
SageMaker Recommender-Pipeline mit automatisiertem Retraining und Deployment entwickelt. Ransomware-Detection-Modelle mit 90% Genauigkeit erstellt (F1 = 0,87, ROC-AUC = 0,93).


Data Scientist
idealo
Zeitreihen-Prognosemodelle für Marketing-Ausgaben und Kampagnenplanung in Tableau/Python deployed. Bayesian A/B-Testing-Framework für Produkt-Experimente geleitet.


Industrial Engineering (B.Eng.)
Hochschule Fresenius
Abschlussarbeit über Financial-Fraud-Detection mit überwachtem ML (Note 1,0). Abschluss mit GPA 1,8.
Zertifizierungen
AWS & ML-Spezialisierungen für Cloud-Architekturen und Machine Learning Production

AWS Data Analytics – Specialty
Amazon Web Services

AWS Solutions Architect – Associate
Amazon Web Services

AWS Cloud Practitioner
Amazon Web Services

ML Production Pipelines
Coursera

Machine Learning by Andrew Ng
Stanford / Coursera
Team
Ein kleines Kernteam aus Berlin plus ausgewähltes Netzwerk. Seniorität und Verantwortung statt Hierarchie-Ebenen.

- Training und Deployment von ML-Modellen
- LLM integration and fine-tuning
- ML pipeline development
- Model monitoring & performance
- AWS infrastructure & IaC
- Data pipeline architecture
- Databases & caching strategies
- System integration & APIs
- Frontend with React/Next.js
- Backend services & APIs
- User experience & interface design
- Testing & quality assurance
Technologie-Stack
Präziser, 'battle-tested' – bewährte Technologien für produktionsreife AI-Systeme
AI / LLM
Retrieval & Observability
Backend
Frontend
Cloud & Infra
Data
Projekt anfragen
Beschreiben Sie kurz Ihr Vorhaben. Antwort in der Regel innerhalb von 1–2 Werktagen.