Standort:
Typ:
Gehalt:
Benefits sind u.a:
Tech Stack:
Remote (innerhalb Deutschlands) oder vorort in München
unbefristete Festanstellung (37.5h/Woche in Vollzeit); auch Teilzeit ist möglich
EUR 80.000 – 100.000*
Betr. Alterversorge, Möglichkeit zum (begrenzten) Remote Arbeiten innerhalb Europas, Vergünstigungen
SQL, Azure, Data Factory, Databricks, Snowflake
*abhängig vom Grad der Qualifikation und Expertise
Mein Kunde ist eine Tochtergesellschaft eines der erfolgreichsten deutschen Unternehmen im Einzelhandelssektor der DACH Region.
Seit Jahrzehnten entwickelt man hier einschlägige Geschäftsmodelle für den stationären Einzelhandel und E-Commerce und betreut deren aufwendige Umsetzung.
Die fortschreitende Digitalisierung und Notwendigkeit zum stetigen Wandel, nahm man 2020 zum Anlass seine Angebotspalette um ein Produkt zu erweitern:
Eine Datenplattform, die den gesamten Datenlebenszyklus abbildet und managed, u.a. durch den Einsatz von automatisierten Modellen zur Datenanalyse und Datenpipelines mit Cloudanbindung.
Um den bisherigen Erfolg weiter fortzusetzen, sind wir nun auf der Suche nach weiterer Verstärkung für das rund 10 köpfige Data Engineering Team in Form eines (Senior) Data Engineer (m/w/d).
Aufgaben
Als Data Engineer schaffst du u.a. die Grundlage dafür, dass die Data Scientists die notwendigen Datenzugänge haben und unterstützt sie bei der Umsetzung von Machine Learning basierten Modellen.
Dabei entwickelst und implementierst du ETL/ELT Pipelines, die eine Vielzahl an Datenquellen mit dem bereits bestehenden Cloudsystem (Azure) verbinden und z.B. die automatisierte Verarbeitung in Echtzeit oder die Abbildung von Daten in einem Dashboard ermöglichen.
In der Cloud findest du auch Data Warehouse Strukturen (Snowflake), die es zu verstehen und optimieren gilt. Dabei geht es z.B. um die Erweiterung des Data Vault Modells oder die Entwicklung neuer Data Marts.
Darüber hinaus spielt der Data Engineer eine wichtige Rolle bei der Optimierung der Plattform insgesamt und der Schaffung neuer Features. Du deckst Potentiale in der Infrastruktur auf, diskutierst mit dem Team neue Ideen und entwickelst Lösungsansätze bzw. Prototypen, die es zu testen gilt.
Fähigkeiten & Erfahrungen
- Mindestens 3 Jahre praktische Erfahrung in der Entwicklung und Implementierung von Datensystemen und ETL/ELT Pipelines
- (Erste) Erfahrungen mit Cloud Strukturen und damit einhergehenden Tools; idealerweise Azure und Snowflake
(andere Lösungen wie GCP oder AWS und ähnliche Datenbanken sind gute Alternativen) - Expertise im Data Vault Modelling ist ein Plus
- Du bist fließend in SQL; Erfahrungen mit Python wären hilfreich, sind aber nicht notwendig
- Hohes Maß an Eigeninitative insbesondere wenn es um die Kommunikation mit nicht-technischen Fachbereichen geht
- Du verfügst über gute Deutsch- und Englischkenntnisse

