Was du bei uns machst:
- Du konzipierst, implementierst und betreust Tracking-Setups für Websites und digitale Kampagnen.
- Du stellst Datenqualität durch Testing, Debugging und laufende Kontrolle sicher.
- Du entwickelst eine saubere, skalierbare Tracking-Architektur für unsere Kundinnen und Kunden.
- Du übersetzt komplexe Daten in verständliche Reports und klare Handlungsempfehlungen.
- Du arbeitest eng mit Consulting, Advertising, Web Development und externen Partnern zusammen.
- Du entwickelst unser Tracking-System kontinuierlich weiter und evaluierst neue Technologien.
- Du berücksichtigst aktuelle Privacy- und Datenschutzbestimmungen in allen Setups.
|
|
|
Die Tätigkeit umfasst
- Enge Zusammenarbeit mit internen Stakeholdern, um Anforderungen zu verstehen und datenbasierte Lösungen zu entwickeln
- Sicherstellung und Verbesserung der Datenqualität
- Durchführung von Datenanalysen zur Unterstützung von Fachbereichen
- Mitarbeit bei der Strukturierung und Dokumentation von Datenquellen
- Unterstützung bei der Automatisierung von Datentransformationsprozessen
- Aufbau, Pflege und Weiterentwicklung von Power BI Reports und Dashboards
|
Vollzeit
Bozen, Verona, Oberding, Deutschland
14.02.2026
Bozen, Verona, Oberding, Deutschland
Was Dich erwartet:
- Betreuung und Weiterentwicklung des BW/4HANA Systems
- Implementierung von Datenmodellen, ETL-Prozessen und Reporting-Lösungen
- Sicherstellung von Datenqualität und Performanceoptimierung
- Schnittstellenfunktion zu externen Beratern (Koordination, technische Abnahme und Qualitätssicherung)
- Unterstützung in der Prozessberatung und im Anforderungsmanagement
- Erstellung und Pflege der technischen und betrieblichen Dokumentation
|
Ihre Aufgaben
- Analyse, Auswertung und Interpretation komplexer Datenmengen
- Entwicklung von Reports, Dashboards und datenbasierten Entscheidungsgrundlagen
- Unterstützung der Fachabteilungen bei datengetriebenen Fragestellungen
- Identifikation von Trends, Mustern und Optimierungspotenzialen
- Sicherstellung der Datenqualität und Weiterentwicklung bestehender Datenmodelle
- Zusammenarbeit mit IT, Entwicklung und Management
|
Positionsübersicht
- Entwurf und Verwaltung von Datenspeichersystemen für große Datensätze (Multi-TB-Bilddaten, 3D-Assets, Trainingsdaten)
- Entwicklung effizienter Datenzugriffsmuster und Bewegungsstrategien für verteiltes Training und Experimentieren
- Implementierung der Versionierung von Datensätzen und Verfolgung der Abstammung für die Reproduzierbarkeit
- Einrichtung und Pflege der Infrastruktur für Experimentverfolgung und Modellregistrierung (MLflow, Weights & Biases)
- Aufbau von ML-Pipelines für Datenvorverarbeitung, Training, Validierung und Modellregistrierung (Kubeflow, Airflow, Prefect)
- Unterstützung verteilter Trainingsworkflows über Multi-GPU-Cluster (PyTorch Distributed, Horovod, Ray)
- Profilierung und Optimierung von Trainingspipelines: Engpässe beim Laden von Daten, Batch-Sizing, GPU-Speicherauslastung
- Sicherstellung der Reproduzierbarkeit von Experimenten: Umgebungspinning, Datenversionierung, Artefaktmanagement
- Verwaltung der Speicherung und Verteilung von Artefakten (Docker-Registrierungen, Modell-Registrierungen, Paket-Repositories)
- Entwicklung von Werkzeugen zur Verbesserung der Entwicklerproduktivität für ML-Workflows
|
Zu Deinen Aufgaben gehören:
- Überwachung und Analyse der Produktionskosten sowie Erstellung von Produkt- und Prozesskalkulationen
- Identifikation von Kostensenkungspotenzialen und Effizienzsteigerungen
- Verantwortung für die Budgetplanung, Forecasterstellung und Abweichungsanalysen
- Erstellung von Monats-, Quartals- und Jahresberichten inkl. Kennzahlen
- Bewertung von Investitionsprojekten
- Mitwirkung bei der Analyse und Optimierung von Produktionsprozessen
- Analyse und Optimierung des Materialeinsatzes und der Materialverluste
- Sicherstellung der Datenqualität und Verbesserung der Datenprozesse
|