Auf einen Blick
- Aufgaben: Entwickle moderne, skalierbare Datenlösungen mit Databricks und unterstütze Kunden bei komplexen Datenherausforderungen.
- Arbeitgeber: NETCONOMY ist ein dynamisches Unternehmen mit 500 Mitarbeitern an 10 Standorten in Europa.
- Mitarbeitervorteile: Flexible Arbeitsmodelle, Karriereentwicklung, soziale Events und Unterstützung für umweltfreundliche Mobilität.
- Warum dieser Job: Werde Teil eines agilen Teams und arbeite an innovativen Datenprojekten mit modernster Technologie.
- Gewünschte Qualifikationen: Mindestens 3 Jahre Erfahrung als Data Engineer mit Databricks und starke Programmierkenntnisse in Python.
- Andere Informationen: Engagiere dich in einem kreativen Umfeld mit regelmäßigen Networking-Events und einer positiven Unternehmenskultur.
Das voraussichtliche Gehalt liegt zwischen 43200 - 72000 € pro Jahr.
Über die letzten 20 Jahre ist NETCONOMY von einem Startup zu einem Team von 500 Personen gewachsen, das an 10 europäischen Standorten tätig ist. Wir glauben an die Kraft der agilen und funktionsübergreifenden Zusammenarbeit, die Menschen aus verschiedenen Hintergründen zusammenbringt, um herausragende digitale Lösungen zu schaffen.
IHRE AUFGABEN
- Als Data Engineer mit Fokus auf Databricks spielen Sie eine Schlüsselrolle beim Aufbau moderner, skalierbarer und leistungsstarker Datenlösungen für unsere Kunden.
- Sie sind Teil unseres wachsenden Data & AI-Teams und arbeiten praktisch mit der Databricks-Plattform, um Kunden bei der Lösung komplexer Datenherausforderungen zu unterstützen.
- Entwurf, Entwicklung und Wartung robuster Datenpipelines unter Verwendung von Databricks, Spark und Python.
- Aufbau effizienter und skalierbarer ETL-Prozesse zum Laden, Transformieren und Laden von Daten aus verschiedenen Quellen (Datenbanken, APIs, Streaming-Plattformen) in cloudbasierte Datenseen und -lager.
- Nutzung des Databricks-Ökosystems (SQL, Delta Lake, Workflows, Unity Catalog), um zuverlässige und leistungsfähige Daten-Workflows bereitzustellen.
- Integration mit Cloud-Diensten wie Azure, AWS oder GCP, um sichere, kosteneffektive Datenlösungen zu ermöglichen.
- Beitrag zu Datenmodellierungs- und Architekturentscheidungen, um Konsistenz, Zugänglichkeit und langfristige Wartbarkeit der Datenlandschaft sicherzustellen.
- Sicherstellung der Datenqualität durch Validierungsprozesse und Einhaltung von Daten-Governance-Richtlinien.
- Zusammenarbeit mit Datenwissenschaftlern und Analysten, um Datenbedürfnisse zu verstehen und umsetzbare Lösungen zu liefern.
- Aktualisierung über Fortschritte in Databricks, Datenengineering und Cloud-Technologien, um unsere Werkzeuge und Ansätze kontinuierlich zu verbessern.
IHRE FÄHIGKEITEN
- 3+ Jahre praktische Erfahrung als Data Engineer mit Databricks und Apache Spark.
- Starke Programmierkenntnisse in Python, mit Erfahrung in Datenmanipulationsbibliotheken (z.B. PySpark, Spark SQL).
- Erfahrung mit den Kernkomponenten des Databricks-Ökosystems: Databricks Workflows, Unity Catalog und Delta Live Tables.
- Solides Verständnis der Prinzipien des Data Warehousing, ETL/ELT-Prozesse, Datenmodellierung und Techniken sowie Datenbanksysteme.
- Nachgewiesene Erfahrung mit mindestens einer großen Cloud-Plattform (Azure, AWS oder GCP).
- Ausgezeichnete SQL-Kenntnisse für Datenabfragen, Transformation und Analyse.
- Ausgezeichnete Kommunikations- und Kollaborationsfähigkeiten in Englisch und Deutsch (mind. B2-Niveau).
- Fähigkeit, unabhängig sowie im Team in einem agilen Umfeld zu arbeiten.
WÜNSCHENSWERTE FÄHIGKEITEN
- Verständnis von Daten-Governance, Datenqualität und Compliance-Best-Practices.
- Erfahrung in Multi-Cloud-Umgebungen.
- Vertrautheit mit DevOps, Infrastructure-as-Code (z.B. Terraform) und CI/CD-Pipelines.
- Interesse oder Erfahrung mit Machine Learning oder KI-Technologien.
- Erfahrung mit Datenvisualisierungstools wie Power BI oder Looker.
UNSER ANGEBOT
- Flexible Arbeitsmodelle: Dank unserer flexiblen Arbeitsmodelle können Sie Ihren Arbeitstag so beginnen, wie es Ihnen am besten passt.
- Karriereentwicklung & Einarbeitung: Beginnen Sie Ihre Reise bei NETCONOMY mit einer strukturierten Einarbeitungs- und Mentoring-Phase und setzen Sie diese mit individuellen Schulungsmöglichkeiten fort.
- Unternehmensgipfel: Tauschen Sie berufliche und persönliche Erfahrungen auf unserer jährlichen internen Konferenz aus!
- Soziale Veranstaltungen: Nehmen Sie an unseren sozialen Veranstaltungen teil und knüpfen Sie neue Kontakte.
- Snacks und Wohlbefinden: Profitieren Sie von unserem monatlichen Essenszuschuss und Rabatten bei Partnerrestaurants.
- Mobilitätsunterstützung: Wählen Sie umweltfreundliche Transportmittel! Wir unterstützen Ihre klimafreundlichen Transportkosten.
Kontaktperson:
Netconomy Switzerland GmbH HR Team
StudySmarter Bewerbungstipps 🤫
So bekommst du den Job: Data Engineer (f/m/x)
✨Tipp Nummer 1
Netzwerke mit anderen Data Engineers und Fachleuten in der Branche. Besuche Meetups oder Konferenzen, die sich auf Databricks und Datenengineering konzentrieren. So kannst du wertvolle Kontakte knüpfen und möglicherweise Insider-Informationen über offene Stellen erhalten.
✨Tipp Nummer 2
Nutze Plattformen wie LinkedIn, um gezielt nach Unternehmen zu suchen, die Databricks verwenden. Folge diesen Unternehmen und interagiere mit ihren Inhalten, um deine Sichtbarkeit zu erhöhen und dein Interesse an der Branche zu zeigen.
✨Tipp Nummer 3
Beteilige dich an Online-Communities und Foren, die sich mit Databricks und Datenengineering beschäftigen. Teile dein Wissen, stelle Fragen und lerne von anderen. Dies kann dir helfen, dein Fachwissen zu vertiefen und gleichzeitig dein Netzwerk zu erweitern.
✨Tipp Nummer 4
Halte dich über die neuesten Entwicklungen in der Databricks-Plattform und den damit verbundenen Technologien auf dem Laufenden. Abonniere relevante Blogs, Podcasts oder YouTube-Kanäle, um dein Wissen aktuell zu halten und in Vorstellungsgesprächen glänzen zu können.
Diese Fähigkeiten machen dich zur top Bewerber*in für die Stelle: Data Engineer (f/m/x)
Tipps für deine Bewerbung 🫡
Verstehe die Anforderungen: Lies die Stellenbeschreibung sorgfältig durch und achte auf die spezifischen Fähigkeiten und Erfahrungen, die NETCONOMY sucht. Stelle sicher, dass du diese in deiner Bewerbung ansprichst.
Betone relevante Erfahrungen: Hebe deine 3+ Jahre Erfahrung als Data Engineer hervor, insbesondere mit Databricks und Apache Spark. Nenne konkrete Projekte oder Erfolge, die deine Fähigkeiten in der Datenverarbeitung und -analyse demonstrieren.
Zeige deine Programmierkenntnisse: Stelle sicher, dass du deine starken Programmierkenntnisse in Python und deine Erfahrung mit Datenmanipulationsbibliotheken wie PySpark und Spark SQL klar darstellst. Dies ist entscheidend für die Rolle.
Schreibe ein überzeugendes Anschreiben: Verfasse ein individuelles Anschreiben, das deine Motivation für die Position und dein Interesse an NETCONOMY zeigt. Betone, wie du zur Lösung komplexer Datenherausforderungen beitragen kannst und warum du gut ins Team passt.
Wie du dich auf ein Vorstellungsgespräch bei Netconomy Switzerland GmbH vorbereitest
✨Verstehe die Databricks-Plattform
Mach dich mit den Kernkomponenten von Databricks vertraut, insbesondere mit Workflows, Unity Catalog und Delta Live Tables. Zeige im Interview, dass du praktische Erfahrungen mit diesen Tools hast und wie du sie in der Vergangenheit eingesetzt hast.
✨Bereite Beispiele für ETL-Prozesse vor
Sei bereit, konkrete Beispiele für ETL-Prozesse zu diskutieren, die du entwickelt hast. Erkläre, wie du Daten aus verschiedenen Quellen in Cloud-Datenlager geladen hast und welche Herausforderungen du dabei überwinden musstest.
✨Kommunikationsfähigkeiten betonen
Da die Zusammenarbeit mit Datenwissenschaftlern und Analysten wichtig ist, solltest du deine Kommunikationsfähigkeiten hervorheben. Bereite dich darauf vor, zu erklären, wie du komplexe technische Konzepte verständlich machen kannst.
✨Aktuelle Trends im Bereich Data Engineering
Informiere dich über die neuesten Entwicklungen in der Datenengineering-Welt, insbesondere in Bezug auf Databricks und Cloud-Technologien. Zeige dein Interesse an kontinuierlichem Lernen und wie du diese Trends in deine Arbeit integrieren möchtest.