Auf einen Blick
- Aufgaben: Entwickle moderne Datenlösungen mit Databricks und arbeite an spannenden Projekten.
- Arbeitgeber: NETCONOMY ist ein dynamisches Unternehmen mit 500 Talenten an 10 Standorten in Europa.
- Mitarbeitervorteile: Genieße flexible Arbeitszeiten, hybrides Arbeiten und tolle soziale Events.
- Warum dieser Job: Werde Teil eines kreativen Teams und forme die Zukunft der Datenlösungen.
- Gewünschte Qualifikationen: Mindestens 3 Jahre Erfahrung als Data Engineer mit Databricks und starken Python-Kenntnissen.
- Andere Informationen: Erlebe eine strukturierte Einarbeitung und individuelle Weiterbildungsmöglichkeiten.
Das voraussichtliche Gehalt liegt zwischen 48000 - 84000 € pro Jahr.
In den letzten 20 Jahren ist NETCONOMY von einem Startup zu einem 500-köpfigen Team herangewachsen, welches an 10 Standorten in Europa zusammenarbeitet. Agilität und interdisziplinäre Zusammenarbeit sind Grundpfeiler unserer Arbeitskultur. In einem kreativen Miteinander erschaffen Menschen mit vielfältigen Hintergründen einzigartige digitale Lösungen.
DEINE AUFGABEN
Als Data Engineer mit einem Fokus auf Databricks übernimmst du eine zentrale Rolle bei der Entwicklung moderner, skalierbarer und leistungsstarker Datenlösungen für unsere Kunden. In diesem Job wirst du Teil unseres wachsenden Data & AI Teams und arbeitest hands-on mit der Databricks Plattform um unseren Kunden dabei zu helfen komplexe Herausforderungen rund um das Thema Daten zu lösen.
Dein Aufgabenbereich beinhaltet:
- Design, Entwicklung und Wartung robuster Datenpipelines mit Databricks, Spark und Python
- Aufbau effizienter und skalierbarer ETL-Prozesse zum Einlesen, Transformieren und Laden von Daten aus verschiedenen Quellen (Datenbanken, APIs, Streaming-Plattformen) in cloudbasierte Data Lakes und Data Warehouses
- Nutzung des Databricks Ökosystems (SQL, Delta Lake, Workflows, Unity Catalog) zur Bereitstellung zuverlässiger und performanter Daten-Workflows
- Integration mit Cloud-Diensten wie Azure, AWS oder GCP zur Ermöglichung sicherer und kosteneffizienter Datenlösungen
- Mitgestaltung der Datenmodellierung und -architektur zur Gewährleistung von Konsistenz, Zugänglichkeit und langfristiger Wartbarkeit der Datenlandschaft
- Gewährleistung der Datenqualität durch Validierungsprozesse und Einhaltung von Data-Governance-Richtlinien
- Zusammenarbeit mit Data Scientists und Analysten , um Datenbedürfnisse zu verstehen und umsetzbare Lösungen zu liefern
- Kontinuierliche Weiterbildung in den Bereichen Databricks, Data Engineering und Cloud-Technologien zur Optimierung unserer Tools und Prozesse
YOUR SKILLS
Essential Skills:
- 3+ years of hands-on experience as a Data Engineer working with Databricks and Apache Spark
- Strong programming skills in Python , with experience in data manipulation libraries (e.g., PySpark, Spark SQL)
- Experience with core components of the Databricks ecosystem: Databricks Workflows, Unity Catalog, and Delta Live Tables
- Solid understanding of data warehousing principles, ETL/ELT processes, data modeling and techniques, and database systems
- Proven experience with at least one major cloud platform (Azure, AWS, or GCP)
- Excellent SQL skills for data querying, transformation, and analysis
- Excellent communication and collaboration skills in English and German (min. B2 levels)
- Ability to work independently as well as part of a team in an agile environmen t
Beneficial Skills:
- Understanding of data governance, data quality, and compliance best practices
- Experience with working in multi-cloud environments
- Familiarity with DevOps, Infrastructure-as-Code (e.g., Terraform), and CI/CD pipelines
- Interest or experience with machine learning or AI technologies
- Experience with data visualization tools such as Power BI or Looker
OUR OFFER
While we\’re one company, each location has unique aspects and benefits. Here\’s a glimpse of what to expect:
- Flexible Working Models : Early bird or night owl? Thanks to our flexible working models, you start your work day when and where it fits you best. Plus, our hybrid work option lets you choose whether you prefer working more from the office or from home.
- Career Development & Onboarding: Start your journey in NETCONOMY with a structured onboarding and mentoring phase and continue with individual training opportunities. Our Learning & Development team will support you in finding the best solution for you!
- Company Summit: Exchange professional and personal experiences at our annual in-house conference! One of the highlights of our company Summit is the vibrant networking environment it cultivates.
- Social Events: Join your colleagues and build new connections at our social events like pizza & games evenings, hiking, and Christmas party, and celebrate milestones together. It\’s on us!
- Snacks and Wellbeing : Fuel your productivity and taste buds with our monthly meal allowance and discounts at partner restaurants.
- Mobility Support: Choose eco friendly transportation! As we take our responsibility for the environment seriously, we support your climate-friendly transportation costs.
#J-18808-Ljbffr
Senior Data Engineer (f/m/x) Arbeitgeber: NETCONOMY GmbH
Kontaktperson:
NETCONOMY GmbH HR Team
StudySmarter Bewerbungstipps 🤫
So bekommst du den Job: Senior Data Engineer (f/m/x)
✨Tip Nummer 1
Nutze dein Netzwerk! Sprich mit ehemaligen Kollegen oder Freunden, die bereits in der Datenengineering-Branche arbeiten. Sie können dir wertvolle Einblicke geben und möglicherweise sogar eine Empfehlung bei NETCONOMY aussprechen.
✨Tip Nummer 2
Beteilige dich an relevanten Online-Communities oder Foren, die sich mit Databricks, Spark und Cloud-Technologien beschäftigen. Dort kannst du dein Wissen erweitern und gleichzeitig Kontakte knüpfen, die dir bei deiner Jobsuche helfen können.
✨Tip Nummer 3
Halte Ausschau nach Webinaren oder Workshops zu Databricks und Data Engineering. Diese Veranstaltungen bieten nicht nur wertvolle Informationen, sondern auch die Möglichkeit, direkt mit Fachleuten in Kontakt zu treten und dein Interesse an der Position zu zeigen.
✨Tip Nummer 4
Bereite dich auf technische Interviews vor, indem du typische Fragen zu Databricks, ETL-Prozessen und Datenmodellierung übst. Zeige dein praktisches Wissen und deine Problemlösungsfähigkeiten, um einen bleibenden Eindruck zu hinterlassen.
Diese Fähigkeiten machen dich zur top Bewerber*in für die Stelle: Senior Data Engineer (f/m/x)
Tipps für deine Bewerbung 🫡
Verstehe die Anforderungen: Lies die Stellenanzeige sorgfältig durch und achte auf die geforderten Fähigkeiten und Erfahrungen. Stelle sicher, dass du diese in deinem Lebenslauf und Anschreiben klar hervorhebst.
Betone relevante Erfahrungen: Fokussiere dich in deinem Lebenslauf auf deine bisherigen Erfahrungen als Data Engineer, insbesondere mit Databricks und Apache Spark. Nenne konkrete Projekte oder Erfolge, die deine Fähigkeiten unter Beweis stellen.
Anpassung des Anschreibens: Schreibe ein individuelles Anschreiben, das deine Motivation für die Position und das Unternehmen verdeutlicht. Gehe darauf ein, wie du zur interdisziplinären Zusammenarbeit und Agilität im Team beitragen kannst.
Prüfe auf Vollständigkeit: Bevor du deine Bewerbung abschickst, überprüfe alle Dokumente auf Vollständigkeit und Richtigkeit. Achte darauf, dass dein Lebenslauf und Anschreiben gut strukturiert und fehlerfrei sind.
Wie du dich auf ein Vorstellungsgespräch bei NETCONOMY GmbH vorbereitest
✨Verstehe die Databricks-Plattform
Stelle sicher, dass du ein tiefes Verständnis der Databricks-Plattform und ihrer Kernkomponenten hast. Bereite dich darauf vor, spezifische Fragen zu Databricks Workflows, Unity Catalog und Delta Live Tables zu beantworten.
✨Demonstriere deine Programmierkenntnisse
Sei bereit, deine Fähigkeiten in Python und den damit verbundenen Datenmanipulationsbibliotheken wie PySpark und Spark SQL zu demonstrieren. Möglicherweise wirst du gebeten, einen kurzen Code-Schnipsel zu schreiben oder zu erklären, wie du Daten transformieren würdest.
✨Bereite Beispiele für ETL-Prozesse vor
Habe konkrete Beispiele aus deiner bisherigen Arbeit parat, die zeigen, wie du effiziente und skalierbare ETL-Prozesse aufgebaut hast. Dies wird dir helfen, deine praktische Erfahrung zu untermauern.
✨Kommunikationsfähigkeiten betonen
Da die Zusammenarbeit mit Data Scientists und Analysten wichtig ist, solltest du deine Kommunikations- und Teamfähigkeiten hervorheben. Bereite dich darauf vor, Beispiele zu geben, wie du erfolgreich in einem agilen Umfeld gearbeitet hast.