Ansässig in: Genf, Schweiz

ETL-Berater in der Schweiz | Datenpipeline- & Integrationsexperte

Zuverlässige, skalierbare Datenpipelines für Ihre Analytik

ETL-Experte in der Schweiz, spezialisiert auf moderne Datenpipeline-Entwicklung mit dbt, Apache Airflow und Cloud-nativen Integrationstools. Ich entwerfe und implementiere produktionsreife ETL/ELT-Workflows, die Rohdaten in analytikfähige Assets transformieren. Von der Legacy-Pipeline-Modernisierung bis zu Echtzeit-Streaming-Architekturen liefere ich Datenintegrationslösungen, die zuverlässig, beobachtbar und skalierbar sind.

Warum mich wählen

Moderne ELT-Stack-Expertise (dbt, Airflow, Dagster, Prefect)

Echtzeit-Streaming-Pipelines mit Kafka und Spark Streaming

Datenqualitäts-Frameworks mit automatisierten Tests und Validierung

Pipeline-Monitoring und Alerting für 99.9% Uptime-SLAs

Verarbeitung von 50M+ Datensätzen täglich in Produktion

Cloud-native Pipelines auf AWS, Azure und GCP

Legacy-ETL-Modernisierung (Informatica, SSIS, Talend zum modernen Stack)

Kostenoptimierte Batch- und Micro-Batch-Verarbeitung

In der Schweiz ansässig, Erfahrung mit Bank- und Pharmadaten

Angebotene Dienstleistungen

Pipeline-Entwicklung

Design und Aufbau robuster ETL/ELT-Pipelines mit dbt, Airflow und Cloud-nativen Services. Modulare, testbare und versionskontrollierte Datentransformationen, die einfach zu warten und zu erweitern sind.

Datenintegration

Verbindung unterschiedlicher Datenquellen — APIs, Datenbanken, SaaS-Plattformen, Dateien und Streaming-Quellen — zu einer einheitlichen Datenplattform. CDC, inkrementelles Laden und idempotente Verarbeitung für zuverlässige Integration.

dbt-Implementierung

Einrichtung und Optimierung von dbt-Projekten mit Best-Practice-Ordnerstrukturen, modularen SQL-Modellen, automatisierten Tests, Dokumentationsgenerierung und CI/CD-Pipelines für eine selbstdokumentierende Analyseplattform.

Stream-Verarbeitung

Echtzeit-Datenpipelines mit Kafka, Spark Streaming oder Cloud-nativen Diensten wie Kinesis und Pub/Sub. Event-gesteuerte Architekturen für Anwendungsfälle mit Sub-Sekunden-Latenz wie Betrugserkennung und Live-Dashboards.

Pipeline-Monitoring & Observability

Umfassendes Monitoring für Datenpipelines: Datenaktualität, Volumenvalidierung, Schema-Drift-Erkennung und automatisiertes Alerting. Dashboards für volle Transparenz über Pipeline-Gesundheit und SLA-Einhaltung.

Legacy-Pipeline-Migration

Modernisierung von Legacy-ETL-Systemen (Informatica, SSIS, Talend, gespeicherte Prozeduren) zu Cloud-nativen Architekturen. Workload-Bewertung, Zielarchitektur-Design und phasenweise Migration mit paralleler Validierung.

Häufig gestellte Fragen

Bereit für zuverlässige Datenpipelines?