Vibe Coding ist Kern der Arbeit — die Rolle nutzt AI-Coding-Tools (Claude Code, Cursor, Copilot) und erwartet Weiterentwicklung der Vibe-Coding-Methodik.
About the Role
Als Senior Data Engineer gestaltest und implementierst du die Azure-basierte Data Logistics Platform (DLP): von Infrastruktur (Terraform, Azure) über ETL/ELT-Pipelines bis zur konsumfertigen Datenschicht und BI-Modelle. Du übernimmst technische Projektverantwortung, mentorst Junior-/Mid-Level-Kollegen und nutzt AI-Coding-Tools zur Qualitätssicherung und Weiterentwicklung der Vibe-Coding-Methodik.
Job Description
Rolle
Senior Data Engineer (m/w/d) verantwortlich für Entwurf, Entwicklung und Betrieb der Azure-basierten Data Logistics Platform (DLP). Die Rolle umfasst Infrastruktur als Code, Datenbankentwicklung, ETL/ELT-Pipelines, CI/CD und die Bereitstellung konsumfertiger Datenschichten sowie Power BI Semantic Models.
Key Responsibilities
- Architekturdesign und Weiterentwicklung der Azure-basierten DLP (Infrastruktur bis Staging/Integration/Consumer Layer)
- Erstellen und Warten von SQL Database Projects: DDL, Stored Procedures, Views
- Implementieren komplexer Transformationslogiken (z. B. SCD Typ 2, Hierarchie-Flattening, Deduplizierung, Währungsumrechnung)
- Aufbau von Azure Data Factory (ADF)-Pipelines und Anbindung von Quellsystemen (insb. SAP S/4HANA/ECC, CRM, MES, APIs)
- Design und Implementierung von Terraform-Modulen für Azure-Ressourcen (Azure SQL, ADF, Storage, VNet, Key Vault, Entra ID) sowie State-Management über Umgebungen
- Aufbau und Pflege von Azure DevOps YAML-Pipelines für Multi-Stage-Deployments, Code Reviews und automatisierte Tests
- Erstellung von Consumer Views mit KPI-Berechnungen und Power BI Semantic Models (DAX Measures, RLS)
- Gezielter Einsatz von AI-Coding-Tools (Claude Code, Cursor, Copilot) zur Codeerzeugung und Qualitätssicherung
- Technische Projektleitung: Discovery, Sprint-Planung, Stakeholder-Kommunikation und Mentoring von Junior-/Mid-Level Data Engineers
Requirements
Must-haves
- Mindestens 5+ Jahre Erfahrung als Data Engineer, Database Developer oder vergleichbar
- Exzellente SQL-Kenntnisse (DDL, DML, Window Functions, rekursive CTEs, Performance-Optimierung)
- Fundierte Erfahrung mit Azure Data Factory (Pipeline-Design, Copy Activities, Delta-Extraktion, SHIR)
- Solide Kenntnisse in Azure SQL Database, Schema-Design, Stored Procedures, Indexierung, SQL Database Projects
- Erfahrung mit Terraform (Module, State Management, Plan/Apply-Workflow, Azure Provider)
- Praxis in Azure DevOps, YAML-Pipelines, Git (Branch-Strategie, PRs), Boards/Backlogs
- Erfahrung mit Medallion-/Schichtenarchitekturen und Infrastructure as Code
- Agile Arbeitsweise (Scrum/Kanban), Verständnis von CI/CD und automatisiertem Testing in Datenprojekten
- Deutsch mindestens C2, Englisch mindestens C1
Nice-to-haves
- Erfahrung mit AI-Coding-Tools (Claude Code, Cursor, GitHub Copilot Workspace)
- Power BI-Kenntnisse: Semantic Model, DAX Measures, RLS, .pbip-Projekte
- SAP-Grundlagen, idealerweise S/4HANA-Migration oder BW-Ablösung
- Microsoft-Zertifizierungen (z. B. DP-203, AZ-400)
- Kenntnisse in Python (Automatisierung, Tests, Scripting)
- Erfahrung mit dbt, Fabric, Databricks oder vergleichbaren Plattformen
- Verständnis von LLM-/AI-Agent-Architekturen (RAG, Tool-Calling, SQL-Agent-Patterns)
Warum diese Rolle?
- Arbeit an einem zentralen und kontinuier weiterentwickelten Produkt (DLP)
- Vielfältige Kundenprojekte quer durch Branchen
- Frühe und reguläre Nutzung moderner AI-Coding-Tools; Vibe Coding ist Arbeitsweise
- Flexibles, hybrides Arbeitsmodell (Office, Remote, On-Site beim Kunden)
- Kontinuierliche Weiterbildung und interne Wissenstransfers