Snowflake Data Architect (all genders)
Snowflake Data Architect (all genders)
DEINE ROLLE
- Kunden beraten: Du berätst unsere Kunden zur Architektur, Implementierung und Nutzung intelligenter Datenlösungen mit der Snowflake AI Data Cloud (wie z.B. DataMesh, Datasharing, Marketplace).
- Strategische Architektur und Design: Als Architect konzipierst du zukunftssichere Cloud-Datenarchitekturen für Snowflake und stellst sicher, dass die Cloud Data Platform skalierbar, sicher und performant aufgebaut ist.
- Ganzheitlichen Aufbau von Data Platforms verantworten: Du stellst sicher, dass CI/CD, Testkonzepte sowie Infrastructure as Code konsequent berücksichtigt werden.
- Technologien auswählen und integrieren: Du berätst bei der technologischen Roadmap und Strategie, unterstützt bei der Auswahl und Integration von Drittanbieter-Tools (dbt, Talend, Matillion etc.) und setzt Snowflake Features ein.
- Data Management: Du hilfst unseren Kunden, strukturierte und verlässliche Datenprozesse aufzubauen, wie die Einhaltung von Datenschutzrichtlinien, Definition von Data Governance Richtlinien und Implementierung von Datenzugriffs- und Sicherheitskonzepten.
- Enge Zusammenarbeit: In enger Abstimmung mit IT und Fachbereichen gestaltest du Projekte aktiv mit – als Architect, Lead Developer oder Product Owner.
- Aktiv im Presales mitwirken: In Angeboten bist du verantwortlich für technische Lösungskonzepte, begleitest Angebotspräsentationen und führst Workshops durch.
DEIN PROFIL
- Data Platform Architektur: Du hast Erfahrung in Data Platform Projekten, idealerweise mit Snowflake und beherrschst Data Platform Konzepte (DWH/Data Lake/Datalakehouse und Data Mesh) und die Modellierung mit Data Vault 2.0. oder klassischen Modellierungspattern wie Snowflake und Star.
- Cloud-Expertise: Du bringst Erfahrung im Bereich Cloud Data Platforms und einem Cloud Hyperscaler wie AWS, GCP oder Azure mit und du kennst dich grundlegend mit Cloudinfrastruktur aus (VPC, IAM, etc.), ebenso ist dir IaC wie z.B. mit Terraform ein Begriff.
- ETL/ELT-Methodik: Du entwickelst robuste Batch- und Streaming-Datenpipelines mit hoher Datenqualität, kennst dich mit Integrations-Tools wie dbt, Fivetran, Matillion, Talend oder Informatica aus und verfügst über Programmierkenntnisse in SQL, Python, Java, Scala oder Spark.
- Projekt- und Consultingerfahrung: Du hast bereits Erfahrung als Projektleitung, Product Owner, Architect oder in einer vergleichbaren Funktion.
- Sprachkenntnisse: Du verfügst über sehr gute Deutsch- sowie gute Englischkenntnisse in Wort und Schrift.