true frame labs
Verfügbar für ausgewählte Projekte ab Q2 2026

Pragmatische KI-Produkte statt PowerPoint-Versprechen.

True Frame Labs entwickelt AI- und Softwarelösungen von der Idee bis zum Betrieb. Fokus auf messbaren Nutzen, nicht auf Hype. Kleine spezialisierte Taskforce aus Berlin mit hoher Umsetzungsgeschwindigkeit und tiefer technischer Expertise.

Expertise aus der Zusammenarbeit mit

Deloitte
idealo
Public Cloud Group
AllCloud
Matillion
AWS
Rabobank
SpinetiX
VHV
Kyburz
DFL
Croma
Ctera
Lübri
FIUM
Vodafone
Sourcera AI
Nowon

Leistungen

End-to-End-Entwicklung von KI- und Data-Produkten – von der strategischen Planung bis zum produktiven Betrieb.

AI & Data Plattformen

Solide Datenfundamente für bessere Entscheidungen und automatisierte Prozesse.

  • Data Pipelines & ETL-Prozesse
  • Data Warehouses & Analytics-Infrastruktur
  • Business Intelligence & Dashboards
  • Datenqualität & Governance
Generative AI & LLM-Lösungen

Intelligente Systeme, die Wissen verstehen und Aufgaben eigenständig erledigen.

  • RAG-Systeme & Domänen-Wissensbanken
  • AI-Agenten für komplexe Workflows
  • Chatbots & Conversational AI
  • Dokumentenverarbeitung & -analyse
End-to-End Software Engineering

Von Backend-APIs bis zu benutzerfreundlichen Frontends – alles aus einer Hand.

  • Backend-Entwicklung & API-Design
  • Frontend & Web-Anwendungen
  • System-Integrationen & Schnittstellen
  • Cloud-Architekturen auf AWS
Prototyping & Discovery Sprints

Funktionale MVPs in 2–4 Wochen – von der Idee zum testbaren Produkt.

  • Rapid Prototyping für neue AI-Produkte
  • Technische Machbarkeitsprüfungen
  • Architektur-Beratung & Tech-Stack
  • Proof of Concepts & Pilotprojekte

Projekt-Beispiele

Ausgewählte Szenarien aus verschiedenen Branchen

Procurement / Industrie
AI Procurement SaaS: Supplier Enrichment & Evidence-Linked Insights

Ausgangssituation

Lieferantenwissen war verteilt (Dokumente, interne Systeme, externe Quellen). Analysen waren manuell, inkonsistent und schwer auditierbar.

Lösung

Multi-tenant Plattform mit hierarchischem Supplier Enrichment, RAG-Workflows (LangGraph + Vektor-Suche), evidence-linked Antworten, Tracing/Qualitätskontrolle und RBAC. API-basierte Synchronisation statt fragilem Scraping; automatisierte Initiativen über große Transaktionsmengen.

Ergebnisse

  • Strukturierte Insights mit Quellenbelegen über 12k Lieferanten und 100+ Dokumente
  • Automatisierte Opportunity-Erkennung aus ~1.5M Transaktionen (klarer Business-Hebel)
  • Kosten-/Usage-Guardrails für planbaren LLM-Betrieb
ESG / Document AI
ESG-Extraktion aus PDFs, Bildern & DOCX

Ausgangssituation

ESG-relevante Daten mussten aus heterogenen Dokumenten manuell extrahiert werden – langsam und fehleranfällig.

Lösung

Full-stack Extraktionspipeline (Next.js + Backend-Services) mit LLM-gestützter Extraktion, validierten Outputs und automatisierten Verarbeitungsschritten für verschiedene Formate.

Ergebnisse

  • Reduktion manueller Bearbeitungszeit von ~40 Stunden auf ~15 Minuten
  • Reproduzierbare Outputs durch Schema-/Validierungslogik
  • Schnellere Weiterverarbeitung in internen Workflows
Knowledge / Enterprise Search
RAG Knowledge Platform (AWS Bedrock + OpenSearch)

Ausgangssituation

Wissenssuche in vielen Dokumenten war langsam; Antworten waren zu oberflächlich, Quellen schwer nachzuvollziehen.

Lösung

AWS-native Plattform (IaC, API Gateway, S3, OpenSearch, Bedrock) mit semantic chunking/embedding, Suche + UI-Integration und klarer Retrieval-Strategie.

Ergebnisse

  • Deutlich schnellere Dokumentensuche für 200+ Nutzer:innen
  • Höhere Antwortqualität durch verbessertes Chunking/Retrieval
  • Saubere Betriebsbasis (Infra-as-Code, Monitoring, klare Deployments)
Real-time Voice AI
Telefonassistenz: Echtzeit-Dialoge + automatisierte Aktionen

Ausgangssituation

Telefonprozesse blockierten Teams; Informationen gingen verloren; Nachbearbeitung war unstrukturiert.

Lösung

Real-time Voice Backend (FastAPI) mit WebRTC Audio, VAD/Streaming, LLM-Orchestrierung, strukturierter Datenerfassung und automatisierten Aktionen (z. B. E-Mail/Termin).

Ergebnisse

  • Automatisierte Erfassung + Weiterleitung von Gesprächsergebnissen
  • Weniger manuelle Nacharbeit, konsistente Datensätze
  • Produktionsfähige Architektur für mehrere Deployments
Content / Slides
Slide-Generation Service (API-first)

Ausgangssituation

Slide-Erstellung war langsam und inkonsistent; Qualität schwankte stark.

Lösung

Service-basierte Generierung (FastAPI) mit JSON-Schema-Outputs, synthetischen Daten für Robustheit und automatisierter Evaluation.

Ergebnisse

  • Stabilere, 'slide-ready' Outputs durch Guardrails
  • Messbarer Uplift in Produktnutzung/Engagement (qualitätsgetrieben)

Arbeitsweise

Transparenz, kleine Feedback-Schleifen und direkte Kommunikation mit den Entwickler:innen – ohne überflüssige Layer.

01

Verstehen & Schärfen

Problemdefinition, Zielbild und technische Rahmenbedingungen klären. Keine langen Workshops, sondern fokussierte Sessions mit den richtigen Stakeholdern.

02

Entwerfen & Validieren

Architektur-Design und schnelle Proof of Concepts. Frühes Feedback durch funktionale Prototypen statt endloser Spezifikationen.

03

Bauen & Integrieren

Iterative Implementierung mit kontinuierlicher Integration. Tests und Qualitätssicherung von Anfang an, nicht als Nachgedanke.

04

Betreiben & Weiterentwickeln

Deployment, Monitoring und Erfolgsmessung. Iterative Verbesserungen basierend auf echten Nutzungsdaten und Feedback.

Beruflicher Werdegang

Vom Engineering-Studium über Data Science zu AI/ML Engineering – kontinuierliche Entwicklung mit Fokus auf produktionsreife Lösungen

True Frame Labs
True Frame Labs

Freelance AI Architect & Founder

True Frame Labs

04/2025 – heute

Multi-Client AI-Systeme mit LLMs, RAG und Vektor-Suche aufgebaut und skaliert; Token-Kosten um bis zu 90% durch optimierte Inferenz-Pipelines reduziert. End-to-End Full-Stack AI-Produkte mit rollenbasierter Authentifizierung, Echtzeit-Dashboards und automatisiertem CI/CD-Deployment geliefert.

Public Cloud Group
Public Cloud Group

Senior Machine Learning Engineer

Public Cloud Group

03/2024 – 04/2025

Design einer Knowledge-Retrieval-Plattform auf AWS Bedrock & OpenSearch für Enterprise-Kunden geleitet. KI-gestützte Resume-Keyword-Extraction-Bibliothek und Dokumentenklassifizierungs-Pipeline entwickelt, die Verarbeitungszeit von 40h auf 15 Min. reduzierte.

Zapdeck GmbH
Zapdeck GmbH

Chief AI Officer

Zapdeck GmbH

07/2023 – 01/2024

KI-Strategie des Unternehmens entwickelt und umgesetzt; Präsentationsgenerierungs-LLM-System auf Heroku aufgebaut. Modelle mit synthetischen Daten fine-tuned für verbesserte Zuverlässigkeit und Output-Qualität.

AllCloud GmbH
AllCloud GmbH

Data & Software Engineer

AllCloud GmbH

07/2022 – 12/2023

Vollständige AWS-basierte Datenplattform (API Gateway, Glue, Redshift, Step Functions) geliefert. Echtzeit-Übersetzungsdienste und KI-gestützte Lokalisierungs-Pipeline mit SageMaker A2I erstellt, Übersetzungs-Review-Workflows automatisiert.

Deloitte
Deloitte

Machine Learning Consultant

Deloitte

05/2021 – 06/2022

SageMaker Recommender-Pipeline mit automatisiertem Retraining und Deployment entwickelt. Ransomware-Detection-Modelle mit 90% Genauigkeit erstellt (F1 = 0,87, ROC-AUC = 0,93).

idealo
idealo

Data Scientist

idealo

03/2018 – 09/2021

Zeitreihen-Prognosemodelle für Marketing-Ausgaben und Kampagnenplanung in Tableau/Python deployed. Bayesian A/B-Testing-Framework für Produkt-Experimente geleitet.

Hochschule Fresenius
Hochschule Fresenius

Industrial Engineering (B.Eng.)

Hochschule Fresenius

2019 – 2021Bildung

Abschlussarbeit über Financial-Fraud-Detection mit überwachtem ML (Note 1,0). Abschluss mit GPA 1,8.

Zertifizierungen

AWS & ML-Spezialisierungen für Cloud-Architekturen und Machine Learning Production

Amazon Web Services

AWS Data Analytics – Specialty

Amazon Web Services

Amazon Web Services

AWS Solutions Architect – Associate

Amazon Web Services

Amazon Web Services

AWS Cloud Practitioner

Amazon Web Services

Coursera

ML Production Pipelines

Coursera

Stanford / Coursera

Machine Learning by Andrew Ng

Stanford / Coursera

Team

Ein kleines Kernteam aus Berlin plus ausgewähltes Netzwerk. Seniorität und Verantwortung statt Hierarchie-Ebenen.

David Lewenko

David Lewenko

Founder & Senior AI Engineer

7+ Jahre Erfahrung in AI/ML Engineering mit Fokus auf Conversational AI, LLMs und cloud architectures. Specialized in production-ready ML solutions on AWS and developing scalable AI systems.

Machine Learning & MLOps
  • Training und Deployment von ML-Modellen
  • LLM integration and fine-tuning
  • ML pipeline development
  • Model monitoring & performance
Cloud & Data Engineering
  • AWS infrastructure & IaC
  • Data pipeline architecture
  • Databases & caching strategies
  • System integration & APIs
Full-Stack Development
  • Frontend with React/Next.js
  • Backend services & APIs
  • User experience & interface design
  • Testing & quality assurance

Technologie-Stack

Präziser, 'battle-tested' – bewährte Technologien für produktionsreife AI-Systeme

AI / LLM

LangChainLangGraphInstructorLiteLLMOpenAI / AnthropicAWS BedrockHuggingFacePyTorch

Retrieval & Observability

OpenSearchWeaviatePineconeElasticsearchLangfuseeval/test sets

Backend

Python (FastAPI/Flask)TypeScript/Node.jsSQLWebSocketsWebRTCevent-driven patterns

Frontend

ReactNext.jsTailwind CSS

Cloud & Infra

AWS (Lambda, ECS, API Gateway, S3, OpenSearch, SageMaker)Azure (Container Apps, OpenAI)DockerTerraform/TerragruntCDKGitHub Actions/GitLab CI

Data

PostgreSQLRedshiftRedisS3 / BlobAirflowGlueKinesisSQS/SNSPandas/NumPy

Projekt anfragen

Beschreiben Sie kurz Ihr Vorhaben. Antwort in der Regel innerhalb von 1–2 Werktagen.

Unverbindliche Anfrage