Snowflake Data Engineer (all genders)
Snowflake Data Engineer (all genders)
DEINE ROLLE
- Anforderungen verstehen und Kunden beraten: In Zusammenarbeit mit den Fachbereichen erarbeitest du konkrete Anforderungen an die Data Pipelines und berätst unsere Kunden zu Best Practices und Snowflake Data Engineering Features (wie z.B. OpenFlow, Snowpark, Snowpipe).
- Datenstrecken entwickeln: Du konzipierst und entwickelst entlang der gesamten Pipeline und nutzt dafür z.B. Fivetran, dbt, Airflow, Matillion oder andere Tools des modernen Data Stacks
- Daten analysieren und präsentieren: Du nutzt die Snowflake AI Suite (Snowflake Cortex, Snowpark, Streamlit), um aus Datensätzen fundierte Erkenntnisse abzuleiten und präsentierst diese verständlich.
- Enge Zusammenarbeit mit verschiedenen Teams: Du arbeitest eng mit Data Scientists, Analysts, Architects und anderen Engineers zusammen, um die beste Lösung für den Kunden umzusetzen.
- Data Management: Du hilfst unseren Kunden, strukturierte und verlässliche Datenprozesse aufzubauen: Einhaltung von Datenschutzrichtlinien, Definition von Data Governance Richtlinien, Implementierung von Datenzugriffs- und Sicherheitskonzepten.
- Wissen vermitteln: Du setzt Schulungen von Endanwender:innen und Analysts im Umgang mit Snowflake um und erstellst Dokumentationen und Guidelines.
- Aktiv im Presales mitwirken: Je nach Erfahrung entwickelst du technische Lösungskonzepte, begleitest Angebotspräsentationen und führst Workshops durch.
DEIN PROFIL
- Data Platform Kenntnisse: Du hast Erfahrung in Data Platform Projekten, idealerweise mit Snowflake und beherrschst Data Platform Konzepte (DWH/Data Lake/Datalakehouse und Data Mesh) und die Modellierung mit Data Vault 2.0. oder klassischen Modellierungspattern wie Snowflake und Star.
- Cloud-Expertise: Du bringst Erfahrung im Bereich Cloud Data Platforms und einem Cloud Hyperscaler wie AWS, GCP oder Azure mit und kennst dich grundlegend mit Cloudinfrastruktur aus (VPC, IAM, etc.), ebenso ist dir IaC wie z.B. mit Terraform ein Begriff.
- ETL/ELT- Methodik: Du entwickelst mühelos Batch- und Streaming-Datenpipelines mit einem starken Fokus auf Robustheit und Datenqualität und verfügst zudem über einen umfassenden Marktüberblick gängiger Integrations-Tools wie dbt, Fivetran, Matillion, Talend und Informatica, während du gleichzeitig Kenntnisse in einer dieser Sprachen mitbringst: SQL, Python, Java, Scala oder Spark.
- Consultingerfahrung: Berufserfahrung im Consultingbereich ist von Vorteil.
- Sprachkenntnisse: Du beherrschst sehr gute Deutsch- und gute Englischkenntnisse.