Wir suchen eine erfahrene und praxisorientierte Persönlichkeit im Bereich Datenarchitektur. Zu Ihren Hauptaufgaben gehören:
Prozessanalyse: Analyse und Dokumentation von Geschäftsprozessen in Zusammenarbeit mit den Fachabteilungen (z.B. SAP, Salesforce).
Datenpipeline-Entwicklung: Aufbau von ETL-Prozessen und Echtzeit-Datenpipelines unter Verwendung agiler Methoden und Automatisierungsansätzen (z.B. Azure Data Factory, Matillion).
Datenmodellierung und -architektur: Entwurf und Optimierung von Datenmodellen, speziell nach dem Data Vault Ansatz, vorzugsweise auf Snowflake.
Zusammenarbeit und Dokumentation: Enge Abstimmung mit BI- und IT-Experten sowie Dokumentation der Datenprozesse in einem Datenkatalog (z.B. Collibra).
Wissensweitergabe: Unterstützung der Stakeholder durch Wissenstransfer und technische Beratung.
Ihre Qualifikationen
Idealerweise bringen Sie folgende Qualifikationen mit:
Erfahrung in der agilen Softwareentwicklung.
Fundierte Kenntnisse in der Gestaltung skalierbarer und effizienter Datenmodelle, idealerweise nach dem Data Vault Prinzip.
Sehr gute Programmierkenntnisse in Python, Java, Scala und SQL.
Erfahrung mit Hadoop, Spark, Kafka und ETL-Tools.
Tiefes Verständnis von relationalen und NoSQL-Datenbanken.
Fundierte Expertise in Microsoft Azure und dessen Stärken und Schwächen.
Vertrautheit mit Data-Warehousing-Lösungen wie Snowflake oder Microsoft Fabric.
Sicherer Umgang mit Git und CI/CD-Pipelines.
Selbstständige und lösungsorientierte Arbeitsweise.
Starke analytische Fähigkeiten und ein gutes Gespür für Problemlösungen.
Fähigkeit, technische Konzepte auch an nicht-technische Stakeholder zu vermitteln.
Wenn Sie Interesse an dieser spannenden Herausforderung haben, freue ich mich auf deine Bewerbung!
Donia Hergli
Recruitment Consultant | DATA & AI | Permanent Solutions
Mit der Bestätigung deines Passwortes erstellen wir dir einen Account in unserer Datenbank, in dem du deine Jobanfragen verwalten und darüber hinaus alle Funktionen unseres Talent Pools nutzen kannst.