Job Description
Stellenbeschreibung
Du designst und entwickelst ETL-/ELT-Prozesse und sorgst für eine performante Datenverarbeitung und -analyseDu baust und betreibst Datenpipelines, die Echtzeitdaten liefern und unterstützt Teams bei der Entwicklung von datengetriebenen Produkten (Personalisierung, Recommendations, Tracking)Du entwickelst Schnittstellen zu externen Systemen und sorgst für eine zuverlässige Integration neuer Datenquellen (z. B. REST APIs, Google Analytics)Du automatisierst Test- und Deployment-Prozesse von Datenmodellen, ETL-Jobs und Machine-Learning-AnwendungenDu kümmerst dich um Infrastrukturkomponenten für Big Data und Streaming-Technologien (z. B. ClickHouse, Kinesis) und stellst deren hohe Verfügbarkeit und Effizienz sicherDu verantwortest die Sicherstellung einer hohen Datenqualität und entwickelst Maßnahmen zur kontinuierlichen Optimierung der SystemeDu arbeitest an der Entwicklung und Integration von...