Auf einen Blick
- Aufgaben: Entwickle skalierbare Big Data-Lösungen und integriere KI-Agenten für innovative Datenverarbeitung.
- Arbeitgeber: Familienunternehmen mit Fokus auf nachhaltiges Wirtschaften und technische Exzellenz.
- Mitarbeitervorteile: Attraktives Gehalt, flexible Arbeitszeiten und ein kreatives Arbeitsumfeld.
- Warum dieser Job: Gestalte die Zukunft der Datenverarbeitung und arbeite an spannenden Projekten mit modernster Technologie.
- Gewünschte Qualifikationen: Erfahrung in Big Data Engineering, Java-Entwicklung und event streaming mit Confluent Kafka.
- Andere Informationen: Dynamisches Team mit hervorragenden Entwicklungsmöglichkeiten und offener Feedbackkultur.
Das voraussichtliche Gehalt liegt zwischen 54000 - 84000 € pro Jahr.
Im Team Conrad Big Data entwickeln und betreiben wir eine Plattform, die als Grundlage für Datenaustausch, Reporting, Analyse und KI dient. Begriffe wie hohe Leistung, Skalierbarkeit, zentrale Datenspeicherung, unternehmensweite Nutzbarkeit und Bereitstellung von Daten für interne und externe Apps treiben uns täglich voran. Agilität, iterative Ansätze, kontinuierliche Verbesserung und offenes Feedback sind Teil unseres Arbeitsalltags.
Aktivitäten
- Big Data Solution Design & Streaming: Sie entwerfen und implementieren skalierbare Big Data-Lösungen mit einem Schwerpunkt auf der Architektur und dem Betrieb von Event-Streaming-Plattformen (Confluent Kafka) zur Gewährleistung der Echtzeit-Datenverarbeitung.
- Software Engineering & KI-Integration: Sie nutzen Ihr fundiertes Wissen in Java, um komplexe Datenservices zu entwickeln und gestalten KI-Agenten, die Prozesse automatisieren und unsere Datennutzung auf ein neues Niveau heben.
- Datenmodellierung & ETL-Pipelines: Sie sind verantwortlich für das Design effizienter Datenmodelle und die Orchestrierung von ETL-Prozessen (Extract, Transform, Load), wobei Sie die Flexibilität von Code (Java) mit der Effizienz von Tools wie Matillion ETL kombinieren.
- Datenintegration & Qualität: Sie integrieren heterogene Datenquellen in unser Data Warehouse und etablieren strenge Standards für Datenqualität und Konsistenz, damit Datenwissenschaftler und Business-Analysten stets auf zuverlässige Daten zugreifen können.
- Leistung & Optimierung: Sie überwachen proaktiv die Leistung unserer Plattform (GCP/BigQuery), optimieren Abfragen und stellen sicher, dass unsere Systeme auch bei wachsenden Datenmengen und hohen Lasten effizient skalieren.
Anforderungen
- Mehrjährige Berufserfahrung als Big Data Engineer, idealerweise mit Fokus auf Google Cloud Platform (GCP).
- Fundierte Erfahrung in der Backend-Entwicklung mit Java (Must-Have). Kenntnisse in Python sind ein willkommener Pluspunkt.
- Nachgewiesene Expertise in Event-Streaming-Architekturen, insbesondere in der Arbeit mit Confluent Kafka.
- Praktische Erfahrung in der Entwicklung und Implementierung von KI-Agenten sowie Verständnis für die Integration von LLMs oder agentischen Workflows in Datenprodukte.
- Solide Erfahrung in der Gestaltung von Datenmodellen und ETL-Pipelines, vorzugsweise mit Matillion ETL.
- Starke analytische Fähigkeiten und der Antrieb, komplexe technologische Herausforderungen eigenständig zu lösen (von Streaming bis KI).
Bewerbungsprozess
Wir starten mit einem ersten Screening-Gespräch, um herauszufinden, ob es für beide Seiten passt. Anschließend geben wir Ihnen eine technische Aufgabe, die Sie mit dem Team besprechen werden.
Über das Unternehmen
Als zuverlässiger Partner machen wir die Beschaffung von technischem Bedarf für unsere Kund*innen so einfach und effizient wie möglich. Dafür arbeiten wir täglich mit Leidenschaft und Einfallsreichtum. Wir bieten ein hochwertiges Sortiment mit Millionen von technischen Produkten, kundenzentrierte Lösungen und Services sowie fachkompetente Betreuung von Mensch zu Mensch. Diese Mission treiben wir mit Leidenschaft voran, sehen Veränderung als Chance und liefern unseren Kunden alles, was ihre Projekte zum Erfolg führt. Als Familienunternehmen legen wir größten Wert auf nachhaltiges Wirtschaften und langfristige Beziehungen. Wir stehen für Qualität und Zuverlässigkeit.
Senior Data Engineer (m/f/nb) - Big Data Platform - Conrad Electronic SE Arbeitgeber: Jobs via eFinancialCareers
Kontaktperson:
Jobs via eFinancialCareers HR Team
StudySmarter Bewerbungstipps 🤫
So bekommst du den Job: Senior Data Engineer (m/f/nb) - Big Data Platform - Conrad Electronic SE
✨Netzwerken, Netzwerken, Netzwerken!
Nutze LinkedIn und andere Plattformen, um mit Leuten aus der Branche in Kontakt zu treten. Frag nach Empfehlungen oder Tipps – oft sind es persönliche Kontakte, die dir den Fuß in die Tür bringen!
✨Sei bereit für technische Herausforderungen!
Bereite dich auf technische Aufgaben vor, die du im Vorstellungsgespräch lösen musst. Übe mit ähnlichen Projekten oder Herausforderungen, um dein Wissen über Big Data und Event Streaming zu zeigen.
✨Zeige deine Leidenschaft für Daten!
Sprich über deine bisherigen Projekte und wie du innovative Lösungen entwickelt hast. Zeige, dass du nicht nur die technischen Fähigkeiten hast, sondern auch die Begeisterung für die Arbeit mit Daten und KI.
✨Bewirb dich direkt über unsere Website!
Wir lieben es, wenn Bewerber direkt über unsere Seite kommen. Das zeigt dein Interesse an unserem Unternehmen und macht es uns leichter, dich zu finden und zu kontaktieren!
Diese Fähigkeiten machen dich zur top Bewerber*in für die Stelle: Senior Data Engineer (m/f/nb) - Big Data Platform - Conrad Electronic SE
Tipps für deine Bewerbung 🫡
Sei du selbst!: Wenn du deine Bewerbung schreibst, lass deine Persönlichkeit durchscheinen. Wir suchen nach authentischen Menschen, die zu unserem Team passen. Zeig uns, wer du bist und was dich motiviert!
Pass auf die Details auf!: Achte darauf, dass deine Bewerbung fehlerfrei ist. Rechtschreibfehler oder unklare Formulierungen können einen schlechten Eindruck hinterlassen. Nimm dir die Zeit, alles gründlich zu überprüfen, bevor du es abschickst.
Beziehe dich auf die Stellenbeschreibung!: Nutze die Keywords aus der Stellenbeschreibung in deiner Bewerbung. Das zeigt uns, dass du die Anforderungen verstanden hast und genau weißt, wie du ins Team passt. Mach deutlich, wie deine Erfahrungen zu unseren Bedürfnissen passen!
Bewirb dich über unsere Website!: Wir empfehlen dir, dich direkt über unsere Website zu bewerben. So stellst du sicher, dass deine Bewerbung schnell und unkompliziert bei uns ankommt. Wir freuen uns darauf, von dir zu hören!
Wie du dich auf ein Vorstellungsgespräch bei Jobs via eFinancialCareers vorbereitest
✨Verstehe die Technologie
Mach dich mit den Technologien vertraut, die in der Stellenbeschreibung erwähnt werden, insbesondere mit Confluent Kafka und Google Cloud Platform. Zeige im Interview, dass du nicht nur die Grundlagen verstehst, sondern auch, wie du diese Technologien in realen Projekten anwenden würdest.
✨Bereite konkrete Beispiele vor
Denke an spezifische Projekte oder Herausforderungen, die du in der Vergangenheit gemeistert hast. Sei bereit, darüber zu sprechen, wie du skalierbare Big Data-Lösungen entworfen oder ETL-Pipelines implementiert hast. Konkrete Beispiele helfen dir, deine Fähigkeiten zu demonstrieren.
✨Fragen stellen
Bereite einige Fragen vor, die du dem Team stellen kannst. Das zeigt dein Interesse und deine Neugier. Frage nach den aktuellen Herausforderungen, die das Team bei der Arbeit mit Daten hat, oder wie sie Agilität in ihren Prozessen umsetzen.
✨Teamarbeit betonen
Da Teamarbeit und offenes Feedback Teil der Unternehmenskultur sind, solltest du betonen, wie wichtig dir Zusammenarbeit ist. Teile Erfahrungen, in denen du erfolgreich im Team gearbeitet hast, um Probleme zu lösen oder innovative Lösungen zu entwickeln.