Senior Data Pipeline Engineer
Senior Data Pipeline Engineer

Senior Data Pipeline Engineer

Freienbach Vollzeit 60000 - 80000 € / Jahr (geschätzt) Kein Home Office möglich
Go Premium
I

Auf einen Blick

  • Aufgaben: Baue und besitze unsere Dateninfrastruktur für die Musikindustrie.
  • Arbeitgeber: Innovatives Startup, das Künstler weltweit unterstützt.
  • Mitarbeitervorteile: Flexible Arbeitszeiten, Remote-Optionen und ein kleines, erfahrenes Team.
  • Andere Informationen: Wachstumsmöglichkeiten in einem dynamischen Umfeld.
  • Warum dieser Job: Gestalte die Zukunft der Musik mit KI-gesteuerten Produkten.
  • Gewünschte Qualifikationen: 5+ Jahre Erfahrung in der Datenpipeline-Entwicklung und starke Python-Kenntnisse.

Das voraussichtliche Gehalt liegt zwischen 60000 - 80000 € pro Jahr.

Wir suchen einen Senior Data Pipeline Engineer, der unsere Datenaufnahme-Infrastruktur aufbaut und verwaltet. Dies ist keine Support-Rolle. Diese Person ist verantwortlich für das Datenrückgrat des Unternehmens. Wir haben bereits eine funktionierende Dateninfrastruktur, die über mehr als ein Jahrzehnt in der Musikindustrie aufgebaut wurde, mit Produktionspipelines, Crawlern und Integrationen, die heute echte Produkte speisen. Unsere KI-Agenten werden diese Daten nutzen, um Künstler zu scouten, Deals zu modellieren, Einnahmen vorherzusagen und Abläufe zu automatisieren. Jede Einsicht, jede Empfehlung, jede automatisierte Entscheidung beginnt mit Daten, die durch die Systeme fließen, die Sie besitzen.

Ihre Aufgabe ist es, das Vorhandene zu übernehmen, es zu Ihrem zu machen und es zu skalieren. Verbessern Sie die Zuverlässigkeit, erweitern Sie die Abdeckung, fügen Sie neue Quellen hinzu und entwickeln Sie die Architektur weiter, während wir wachsen. Sie werden auch neue Pipelines entwerfen und bauen, wo dies erforderlich ist. Das Fundament ist solide. Was wir brauchen, ist die Person, die es auf die nächste Stufe bringt. Dies ist eine Rolle mit hoher Eigenverantwortung. Sie werden eng mit Produkt und Engineering zusammenarbeiten, gestalten, wie wir externe Daten sammeln und verarbeiten, und von Anfang an echte architektonische Autorität haben.

Ihr Profil

  • Mindestens 5 Jahre Erfahrung im Aufbau von Datenpipelines und/oder Web-Crawling-Infrastrukturen in Produktionsumgebungen
  • Starke Python-Kenntnisse: Scrapy, BeautifulSoup, Selenium, Playwright oder gleichwertig
  • Erfahrung mit Pipeline-Orchestrierungstools wie Airflow, Prefect oder Dagster
  • Solides Verständnis von Datenbanken (PostgreSQL, MongoDB oder ähnlich) und Datenmodellierung
  • Erfahrung im Umgang mit unordentlichen, inkonsistenten realen Daten und dem Aufbau von Validierungsschichten
  • Vertrautheit mit Cloud-Infrastrukturen (AWS, GCP oder Azure)
  • Eine Erfolgsbilanz beim Aufbau von Systemen, die zuverlässig ohne ständige Überwachung laufen
  • Tiefe Vertrautheit mit KI-Tools und -Workflows. KI sollte bereits Teil Ihrer täglichen Arbeit sein.

Nice to have

  • Erfahrung mit headless Browsern und Anti-Erkennungs-Techniken im großen Maßstab
  • Vertrautheit mit der Musikindustrie, Streaming-Plattformen oder Mediendaten
  • Erfahrung mit Data Warehousing (BigQuery, Snowflake, Redshift)
  • Kenntnisse über Nachrichtenwarteschlangen (Kafka, RabbitMQ, Redis)
  • Erfahrung im Aufbau interner Tools und Dashboards

Wer Sie sind

Sie denken in Systemen, nicht in Skripten. Sie haben Crawling- oder Datenaufnahme-Infrastrukturen in einem Unternehmen aufgebaut, in dem externe Daten ein zentrales Element des Produkts waren, nicht ein Nebenprojekt. Sie haben sich mit den unangenehmen Realitäten auseinandergesetzt: Websites, die über Nacht Layouts ändern, Anti-Bot-Systeme, Ratenlimits, inkonsistente APIs und fehlende Daten. Sie haben Pipelines von Anfang bis Ende besessen.

Sie sind selbstgesteuert. Sie treffen architektonische Entscheidungen, nicht nur die Ausführung von Tickets. Sie kümmern sich fast obsessiv um die Datenqualität. Sie sind die Art von Person, die drei Validierungsprüfungen erstellt, wo eine "in Ordnung" wäre.

Warum diese Rolle

Ihre Pipelines speisen die KI-Agenten, die Scouting, Deal-Modellierung, Tantiemen, Release-Planung und Marketing für unsere Kunden durchführen. Sie übernehmen eine funktionierende Dateninfrastruktur, die über mehr als ein Jahrzehnt aufgebaut wurde, und machen sie zu Ihrer. Wir haben den gesamten Tech-Stack von Grund auf neu aufgebaut. Kein Erbe, mit dem man arbeiten muss. Kleines, aber hochqualifiziertes Team. Ihre Arbeit wird schnell umgesetzt und berührt alles. Remote-freundlich mit flexiblen Arbeitszeiten. Büro in Zürich verfügbar für diejenigen, die es bevorzugen.

Wie man sich bewirbt

Bitte senden Sie Ihren Lebenslauf und eine kurze Notiz, in der Sie ein Datenpipeline- oder Crawling-System beschreiben, das Sie von Grund auf neu gebaut haben. Wir möchten hören, in welchem Umfang es betrieben wurde, was kaputt ging und wie Sie es behoben haben.

Warum wir?

Über Label OS

Label OS ist die Plattform, die unabhängige Labels nutzen, um ihr Geschäft zu führen. Distribution, Tantiemen, Analytik, Release-Operationen, Deal-Modellierung, Scouting, Marketing-Intelligenz. Labels nutzen Label OS, um ihren Katalog zu verwalten, Einnahmen zu verfolgen und bessere Entscheidungen zu treffen, ohne große Teams dafür aufbauen zu müssen. Unsere KI-Agenten übernehmen die repetitive Arbeit in allen Abteilungen, damit die Menschen sich auf das konzentrieren können, was wirklich wichtig ist: Künstler finden und Karrieren aufbauen.

Unsere Kunden sind einige der angesehensten Namen in der unabhängigen Musik. Wir sind ein kleines, erfahrenes Team, das KI in jeder Abteilung voll ausschöpft. Wir arbeiten schnell, liefern echte Produkte und bauen die Werkzeuge, die unabhängige Labels tatsächlich benötigen, um wettbewerbsfähig zu sein.

Über uns

Bei iGroove/Label OS revolutionieren wir die Landschaft der Musikdistribution, indem wir Künstlern ermöglichen, globale Zielgruppen mit Leichtigkeit und Effizienz zu erreichen. Als dynamisches und innovatives Startup kombinieren wir modernste Technologie mit tiefem Branchenwissen, um unvergleichliche Unterstützung für Musiker aller Genres zu bieten. Unsere Mission ist es, die Stimmen von Künstlern weltweit zu verstärken und eine lebendige und inklusive Musikkultur zu fördern.

Senior Data Pipeline Engineer Arbeitgeber: iGroove

iGroove/Label OS ist ein hervorragender Arbeitgeber, der eine dynamische und innovative Arbeitsumgebung bietet, in der Mitarbeiter die Möglichkeit haben, an der Spitze der Musiktechnologie zu arbeiten. Mit einem kleinen, hochqualifizierten Team und flexiblen Arbeitszeiten, einschließlich der Option auf Remote-Arbeit oder ein Büro in Zürich, fördern wir eine Kultur des Wachstums und der Eigenverantwortung. Hier können Sie Ihre Fähigkeiten im Bereich Datenpipelines weiterentwickeln und direkt zur Revolutionierung der Musikdistribution beitragen.
I

Kontaktperson:

iGroove HR Team

StudySmarter Bewerbungstipps 🤫

So bekommst du den Job: Senior Data Pipeline Engineer

Tipp Nummer 1

Sei proaktiv! Wenn du dich für die Stelle als Senior Data Pipeline Engineer interessierst, zögere nicht, direkt mit uns in Kontakt zu treten. Zeig uns, dass du bereit bist, Verantwortung zu übernehmen und deine Ideen einzubringen.

Tipp Nummer 2

Nutze dein Netzwerk! Sprich mit Leuten aus der Branche oder ehemaligen Kollegen, die vielleicht schon bei uns arbeiten. Empfehlungen können dir einen echten Vorteil verschaffen und zeigen, dass du gut vernetzt bist.

Tipp Nummer 3

Bereite dich auf technische Gespräche vor! Du wirst wahrscheinlich Fragen zu deinen Erfahrungen mit Datenpipelines und Crawling-Systemen bekommen. Sei bereit, konkrete Beispiele zu nennen und zu erklären, wie du Herausforderungen gemeistert hast.

Tipp Nummer 4

Zeig deine Leidenschaft für AI! Da wir ein AI-natives Unternehmen sind, ist es wichtig, dass du uns zeigst, wie du AI-Tools in deiner täglichen Arbeit nutzt. Teile deine Erfahrungen und Ideen, wie du unsere Systeme weiter verbessern kannst.

Diese Fähigkeiten machen dich zur top Bewerber*in für die Stelle: Senior Data Pipeline Engineer

Datenpipeline-Entwicklung
Web-Crawling-Infrastruktur
Python-Kenntnisse (Scrapy, BeautifulSoup, Selenium, Playwright)
Pipeline-Orchestrierungstools (Airflow, Prefect, Dagster)
Datenbankkenntnisse (PostgreSQL, MongoDB)
Datenmodellierung
Umgang mit unordentlichen, inkonsistenten Daten
Cloud-Infrastruktur (AWS, GCP, Azure)
Zuverlässige Systementwicklung
Vertrautheit mit KI-Tools und -Workflows
Erfahrung mit headless Browsern
Kenntnisse in der Musikindustrie oder Streaming-Plattformen
Datenlagerung (BigQuery, Snowflake, Redshift)
Nachrichtenschlangen (Kafka, RabbitMQ, Redis)
Entwicklung interner Tools und Dashboards

Tipps für deine Bewerbung 🫡

Sei authentisch!: Wenn du deine Bewerbung schreibst, sei einfach du selbst. Zeig uns, wer du bist und was dich motiviert. Wir suchen nach echten Persönlichkeiten, die zu unserem Team passen!

Erzähl uns von deinen Projekten: In deiner Bewerbung solltest du unbedingt ein paar Details zu einem Datenpipeline- oder Crawling-System teilen, das du selbst gebaut hast. Was waren die Herausforderungen? Wie hast du sie gemeistert? Das gibt uns einen tollen Einblick in deine Fähigkeiten!

Mach es übersichtlich: Achte darauf, dass dein Lebenslauf und dein Anschreiben klar strukturiert sind. Verwende Absätze und Aufzählungen, um wichtige Informationen hervorzuheben. So können wir schnell erkennen, was du drauf hast!

Bewirb dich über unsere Website: Wir empfehlen dir, deine Bewerbung direkt über unsere Website einzureichen. So stellst du sicher, dass alles an die richtige Stelle gelangt und wir deine Unterlagen schnell bearbeiten können!

Wie du dich auf ein Vorstellungsgespräch bei iGroove vorbereitest

Verstehe die Infrastruktur

Mach dich mit der bestehenden Dateninfrastruktur vertraut. Überlege dir, wie du sie verbessern und skalieren kannst. Sei bereit, konkrete Beispiele zu nennen, wie du in der Vergangenheit ähnliche Systeme optimiert hast.

Zeige deine Python-Kenntnisse

Bereite dich darauf vor, deine Fähigkeiten in Python zu demonstrieren. Sei bereit, über Tools wie Scrapy oder BeautifulSoup zu sprechen und vielleicht sogar kleine Code-Schnipsel zu schreiben, um deine Erfahrung zu zeigen.

Sprich über Datenqualität

Datenqualität ist entscheidend. Bereite Beispiele vor, in denen du mit unordentlichen oder inkonsistenten Daten gearbeitet hast. Erkläre, wie du Validierungsschichten implementiert hast, um die Datenintegrität sicherzustellen.

Sei selbstbewusst und proaktiv

In dieser Rolle wird Eigenverantwortung großgeschrieben. Zeige, dass du nicht nur Tickets abarbeitest, sondern auch architektonische Entscheidungen triffst. Teile deine Vision, wie du die Datenpipeline weiterentwickeln würdest.

Senior Data Pipeline Engineer
iGroove
Standort: Freienbach
Premium gehen

Schneller zum Traumjob mit Premium

Deine Bewerbung wird als „Top Bewerbung“ bei unseren Partnern gekennzeichnet
Individuelles Feedback zu Lebenslauf und Anschreiben, einschließlich der Anpassung an spezifische Stellenanforderungen
Gehöre zu den ersten Bewerbern für neue Stellen mit unserem AI Bewerbungsassistenten
1:1 Unterstützung und Karriereberatung durch unsere Career Coaches
Premium gehen

Geld-zurück-Garantie, wenn du innerhalb von 6 Monaten keinen Job findest

>