Konzeption und Umsetzung von End-To-End GenAI- und ML-Infrastrukturen, die den kompletten Lebenszyklus von AI-Anwendungsfällen abdecken – von der Datenaufbereitung über Training und Fine-Tuning von Modellen (z. B. LLMs) bis hin zu Trigger-Systemen für kontinuierliches Re-Training, Bereitstellung von Modellen als Services und Monitoring
Planung, Aufbau und Administration von Betriebsplattformen (On-Premise oder Cloud) für GenAI- und ML-Anwendungen, basierend auf modernen Technologien wie Kubernetes oder modernen Container-Orchestrierungsansätzen – sowie Analyse und Optimierung bestehender Plattformen beim Kunden
Bereitstellung und Deployment von lokalen LLMs und Generative AI-Modellen auf der Plattform, einschließlich Integration von Tools und APIs für GenAI-Workflows und Anwendungen
Unterstützung der Data Scientists, Data Engineers und Machine Learning Engineers bei der Erstellung von Schnittstellen, Datenaufbereitung und Workflows
Partnerschaftliche Beratung unserer Kunden in allen Projektphasen: von der Anforderungsdefinition über die Konzeption bin hin zur Implementierung und erfolgreichen Produktivsetzung
Verantwortung für Qualität und Projekterfolg sowie aktive Mitarbeit an der Weiterentwicklung unseres Beratungsportfolios, insbesondere im Bereich GenAI und LLM-Infrastrukturen
Beratung heißt Flexibilität: Dein Projekteinsatz richtet sich nach unseren Kunden und deiner Projektsituation – du arbeitest deutschlandweit in unseren Offices, beim Kunden vor Ort und von zu Hause