Data Engineer (m/w/x)
Über Uns
Contorion ist Deutschlands führender Online-Fachhändler für professionelle Handwerks- und Industriebedarfe. Unsere Mission ist es, den Einkauf von Materialien und Bedarfsgütern für kleine und mittelständische Unternehmen grundlegend zu revolutionieren. Dafür suchen wir engagierte, tatkräftige Mitarbeitende, die gemeinsam mit uns die Zukunft gestalten wollen.In dieser Rolle übernimmst du die Verantwortung für den Aufbau und die Skalierung einer zuverlässigen, leistungsstarken Datenplattform, die komplexe Daten in vertrauenswürdige und geschäftsrelevante Erkenntnisse überführt.
Du arbeitest eng mit Stakeholdern aus den Bereichen Analytics, Produkt und Engineering zusammen und leistest einen wesentlichen Beitrag dazu, datengetriebene Entscheidungen im gesamten Unternehmen zu ermöglichen.
Wenn du dich dafür begeisterst, moderne Datensysteme zu konzipieren, komplexe Datenherausforderungen zu lösen und mit Daten echten geschäftlichen Mehrwert zu schaffen, dann bist du hier genau richtig.
Deine Aufgaben
Du übernimmst die Verantwortung für das Design, den Aufbau und die Skalierung robuster ETL-/ELT-Pipelines und stellst einen zuverlässigen sowie effizienten Datenfluss in unser BigQuery Data Warehouse sicher.
Du konzipierst und pflegst skalierbare Datenmodelle (z. B. Star- und Snowflake-Schemata), die eine hohe Performance, Datenintegrität und Nutzbarkeit für nachgelagerte Analysen gewährleisten.
Du transformierst und strukturierst Daten in vertrauenswürdige, produktionsreife Datensätze und nutzt dabei SQL und dbt, um Qualität, Transparenz und Wartbarkeit sicherzustellen.
Du entwickelst und betreibst datengetriebene Microservices in Python und verwaltest cloud-native Dateninfrastrukturen in GCP, um skalierbare, zuverlässige und kosteneffiziente Systeme zu gewährleisten.
Du arbeitest eng mit Stakeholdern zusammen und nutzt KI-gestützte Engineering-Praktiken, um hochwertige Datensätze bereitzustellen und Daten-Workflows, Observability sowie Systemintelligenz kontinuierlich zu verbessern.
Dein Profil
- Relevante Erfahrung: Du verfügst über nachweisbare Erfahrung (4–5 Jahre) im Aufbau und Betrieb von ETL-/ELT-Pipelines und Datenplattformen in produktiven Umgebungen, idealerweise in einem Cloud-Ökosystem wie GCP.
- Fachliches Know-how: Du hast ein solides Verständnis moderner Datenarchitekturen (z. B. Data Lakes, Data Warehouses, Streaming-Systeme) und kannst skalierbare sowie zuverlässige Datenlösungen entwerfen.
- Kernkompetenz: Du stellst Datenqualität, Zuverlässigkeit und Wartbarkeit sicher und wendest Best Practices in Datenmodellierung, Testing und Observability an.
- Technische Schlüsselkompetenzen: Du hast praktische Erfahrung mit SQL, dbt, BigQuery und Python sowie mit cloud-nativen Datenservices (z. B. Pub/Sub, Dataproc) und dem Aufbau datengetriebener Microservices.
- Sprachen & Tools: Du bist sicher im Umgang mit Python und SQL; Erfahrung mit weiteren Data-Engineering-Tools und Technologien des modernen Data Stacks ist ein Plus.
Was Dich erwartet
- Flexibilität, die zu deinem Leben passt: Ob hybrides Arbeiten, Teilzeit oder Homeoffice – gemeinsam gestalten wir deinen Arbeitsalltag so, wie er für dich am besten funktioniert.
- Work-Life-Balance, die wirklich gelebt wird: 30 Urlaubstage, die Möglichkeit, aus dem Ausland zu arbeiten, und Sabbatical-Optionen – denn Erholung ist kein Extra, sondern essenziell.
- Beweg dich auf deine Art: Ob mit öffentlichen Verkehrsmitteln oder dem Fahrrad – wir unterstützen dich dabei.
- Bleib gesund & voller Energie: Mit Urban Sports, OpenUp, Team-Events und Office-Snacks – für einen starken Körper, einen klaren Kopf und echten Teamspirit.
- Wachse mit uns: Regelmäßiges Feedback und vielfältige Entwicklungsmöglichkeiten begleiten dich auf deinem persönlichen Wachstumspfad.
Vielfalt ist uns wichtig. Wir freuen uns über Bewerbungen von Menschen, unabhängig von Geschlecht, Nationalität, ethnischer und sozialer Herkunft, Religion, Weltanschauung, Behinderung, Alter sowie sexueller Orientierung und Identität.