Positionsübersicht
- Bedienung der 3D-Scanausrüstung, Auswahl der richtigen Parameter und genaue Positionierung der Objekte für jeden Scan
- Vorbereiten und Gestalten von Objekten, um optimale Scanbedingungen zu gewährleisten
- Überprüfen der Scanergebnisse anhand von Qualitätsstandards und erneutes Scannen, falls erforderlich
- Entgegennahme eingehender Pakete, Auspacken der Gegenstände und Transport in den Scanbereich
- Scanner-Fehlfunktionen, Qualitätsanomalien oder technische Probleme umgehend melden
- Unterstützung des Teams bei der Identifizierung und Umsetzung von Workflow-Verbesserungen
|
Positionsübersicht
- Mitwirkung bei der Prüfung, Entwicklung und Wartung von 3D-Scansystemen
- Entwicklung und Betrieb von Prüfständen für Hardwarekomponenten, um die Einhaltung von Qualitäts- und Leistungsstandards zu gewährleisten
- Selbstständige Organisation und Ausführung zugewiesener technischer Aufgaben und Installationen
- Zusammenarbeit mit dem Team bei der Installation von 3D-Scannern an Kundenstandorten weltweit
- Unterstützung von Kunden bei der Fehlersuche an elektronischen und mechanischen Komponenten, sowohl vor Ort als auch aus der Ferne
|
Positionsübersicht
- Aufbau und Betreuung eines leistungsstarken Produktionsteams
- Definition des Einstellungsbedarfs im Zuge der Skalierung des Unternehmens und Einspringen bei Bedarf, um operative Lücken zu schließen
|
Positionsübersicht
- Entwurf und Verwaltung von Datenspeichersystemen für große Datensätze (Multi-TB-Bilddaten, 3D-Assets, Trainingsdaten)
- Entwicklung effizienter Datenzugriffsmuster und Bewegungsstrategien für verteiltes Training und Experimentieren
- Implementierung der Versionierung von Datensätzen und Verfolgung der Abstammung für die Reproduzierbarkeit
- Einrichtung und Pflege der Infrastruktur für Experimentverfolgung und Modellregistrierung (MLflow, Weights & Biases)
- Aufbau von ML-Pipelines für Datenvorverarbeitung, Training, Validierung und Modellregistrierung (Kubeflow, Airflow, Prefect)
- Unterstützung verteilter Trainingsworkflows über Multi-GPU-Cluster (PyTorch Distributed, Horovod, Ray)
- Profilierung und Optimierung von Trainingspipelines: Engpässe beim Laden von Daten, Batch-Sizing, GPU-Speicherauslastung
- Sicherstellung der Reproduzierbarkeit von Experimenten: Umgebungspinning, Datenversionierung, Artefaktmanagement
- Verwaltung der Speicherung und Verteilung von Artefakten (Docker-Registrierungen, Modell-Registrierungen, Paket-Repositories)
- Entwicklung von Werkzeugen zur Verbesserung der Entwicklerproduktivität für ML-Workflows
|
Positionsübersicht
- Bereitstellung, Konfiguration und Wartung von heterogenen Compute-Clustern (CPU/GPU) an mehreren physischen Standorten
- Implementierung von dynamischem Compute- und Storage-Provisioning auf Basis von Workload-Anforderungen
- Entwicklung von Speicherlösungen sowohl auf Hardware- als auch auf Softwareebene (NAS, verteilte Dateisysteme, Storage Tiering)
- Implementierung und Verwaltung von Container-Orchestrierungssystemen (Kubernetes, Docker) für Entwicklungs- und Produktions-Workloads
- Entwurf und Wartung von Infrastruktur als Code mit Tools wie Terraform und Ansible
- Aufbau und Optimierung von Systemen zur Auftragsplanung und Ressourcenzuweisung (Slurm, Kubernetes)
- Einrichtung einer Infrastruktur für Überwachung, Alarmierung und Beobachtung (Prometheus, Grafana, IPMI)
- Profilierung und Optimierung der Leistung auf Systemebene: GPU-Auslastung, Speicherbandbreite, I/O-Durchsatz, Netzwerklatenz
- Verwalten von Netzwerken, VPNs und sicherem Zugriff über verteilte Systeme hinweg
- Handhabung von Zuverlässigkeitsaspekten: Erkennung von Hardwareausfällen, Checkpointing von Jobs, Disaster Recovery
|
Positionsübersicht
- Real-Time System Entwicklung
- Entwurf und Entwicklung hochleistungsfähiger eingebetteter Software für 3D-Scansysteme mit Echtzeit-Datenverarbeitungsanforderungen
- Implementierung von Multithreading-Architekturen für die Koordination von Kameras, Projektoren, Motoren, Objektiven und Beleuchtungssystemen
- Optimierung der Software für die Handhabung von Datenpipelines mit hohem Durchsatz, die große Datensätze (50+ GB) in Echtzeit verarbeiten
- Schreiben von sauberem, effizientem und wartbarem C++- und Python-Code mit Schwerpunkt auf Leistung und Zuverlässigkeit
- Erstellung von Profilen und Optimierung kritischer Codepfade mithilfe moderner Profiling-Tools und Frameworks zur Leistungsmessung
- Hardware-Integration und -Steuerung
- Schnittstellen zu und Steuerung von Industriekameras, einschließlich SDK-Integration (z. B. Basler Pylon, mvIMPACT genicam) und Bilderfassungspipelines
- Entwicklung von Steuerungssystemen für Projektoren, Motoren, Objektive und Beleuchtungshardware
- Implementierung robuster Kommunikationsprotokolle und Synchronisationsmechanismen für die Koordination mehrerer Geräte
- Sicherstellung eines deterministischen Echtzeitverhaltens und minimaler Latenzzeiten in Hardware-Steuerungsschleifen
- Entwurf von Algorithmen zur Bewegungsplanung und -steuerung für automatisierte 3D-Scan-Workflows
- Zusammenarbeit mit Maschinenbauingenieuren bei der Definition von Hardware/Software-Schnittstellen
|
Position Overview
- Set up and configure scanning workstations, compute nodes, and storage systems
- Debug hardware issues (storage drives, GPUs, memory, networking) and software issues (drivers, containers, internal tools)
- Extend and maintain Ansible-based configuration management
- Provide technical support to engineering and operations teams
- Build repeatable deployment processes for new scanning stations
- Document infrastructure procedures and troubleshooting guides
- Contribute to Infrastructure as Code initiatives
- Ensure high availability for development and production scanner systems
- Maintain networking infrastructure across internal and client-deployed environments
|